ホーキング博士ら「ロボット戦争」を警告 人工知能兵器に懸念

http://headlines.yahoo.co.jp/hl?a=20150728-00009319-wsj-int

ウォール・ストリート・ジャーナル 728()1317分配信

 

 ロボット戦争のリスクについては、映画「ターミネーター」などのSFシリーズで世間に広まったが、それはわれわれが考える以上に間近に迫っているのかもしれない。そこで、ハイテクと人工知能(AI)分野のリーダーから構成されるグループが、これを阻止しようと動いている。

 

 著名な天体物理学者のスティーブン・ホーキング博士、電気自動車のテスラ・モーターズを創業したイーロン・マスク氏、それにアップルの共同創設者であるスティーブ・ウォズニアック氏などが署名した書簡が27日公開された。自律型兵器の禁止を求めるものだ。非営利団体「フューチャー・オブ・ライフ・インスティチュート(FLI)」がアルゼンチンで開かれている国際人工知能会議(IJCAI)で公開したもので、自律型兵器は戦争において、火薬と核兵器に次ぐ「3番目の革命」になると指摘した。

 

 書簡は「主要な軍事大国でAI兵器の開発を進める国があれば、世界で開発競争が起こることは不可避であり、この技術の進歩の行く末は明らかだ。自律型兵器は明日のカラシニコフ(自動小銃)になる」と警告した。この書簡には、インターネット電話のスカイプの共同創設者であるジャン・タリン氏のほか、著名な言語学者のノーム・チョムスキー氏も署名している。書簡は「核兵器と違い、自律型兵器は高価または入手困難な原料を必要としないため、至る所に普及する。そして主要な軍事大国なら、安価で大量生産できるようになるだろう」と述べた。

 

 専門家たちは自律型兵器の配備が、数十年後ではなく、数年後に可能になるかもしれないと警告し、「人間による有効な制御を超える」このような兵器を禁止する措置を講じる必要があると述べた。それはこの分野で軍拡競争が起こるのを避けるためで、冷戦より危険だとみているという。

 

 AI業界のリーダーたちは、社会の注目を集める中でAI技術を守ろうと懸命だ。AI兵器開発に反対する書簡は「大半のAI研究者は、AI兵器の開発に関心を持っていないし、その種の兵器を開発することで自分たちの専門分野を汚さないで欲しいと望んでいる。AI兵器が開発されれば、一般市民からAIに対する大きな反発が起き、ひいてはAIの将来的な社会への恩恵が損なわれかねない」と述べた。書簡は、AI兵器に反対する取り組みは、化学兵器や生物兵器を禁止する取り組みを化学・生物分野の専門家が行った経緯と似ていると指摘した。

 

 この書簡が公開されたIJCAI会議の主催者によると、同会議は主として、科学者が持つ「楽観的な見方」に焦点を置く。つまり、自分で考えられるAIマシンの創造で成し遂げた進歩に関する科学者の楽観論に集中するという。しかし、会議では最近のAI分野の状況について話し合う中で、出席者たちはAIが社会にもたらし得る潜在的な影響についても検討する見通しだという。今会議の出席者数は過去最多となる。

 

 スカイプのタリン氏は以前、今日のAIが脅威をもたらす公算は小さいと思うが、将来はそれが変わる可能性があると述べていた。

 

 AIについては、企業による投資が増える中で、熱い議論が交わされている。IBMの質問応答システム「ワトソン」からアップルの音声アシスタント「Siri」に至るまで、AI技術は金融や医療、iPhone(アイフォーン)などの分野で既に商業利用されている。だが、倫理的に行動できるAIを作り出せるか否かの問題提起をする人は少なくない。

 

 既に軍部におけるAI研究の利用を制限する取り組みを行う向きもある。グーグルがAI技術会社の「ディープマインド」を買収した際、ディープマインドは自社の技術が軍事目的で利用されないことを身売りの条件とした。書簡には、グーグル・ディープマインドのデミス・ハサビス最高経営責任者(CEO)のほか、グーグルの研究責任者であるピーター・ノービク氏も署名している。

 

By Cat Zakrzewski