フィナンシャル・タイムズ 「AIの父」が説く脅威論(イノベーション・エディター) ジョン・ソーンヒル(24年2月28日 日本経済新聞電子版)

 

記事の概要

(1)英オックスフォード大学公開講義「ロマネス・レクチャー」

(2)「デジタル知能は、必ず生物学的知能に取って代わる」

(3)「ヒントン氏は「深層学習」技術のパイオニアの一人」

(4)「AIのリスクについて公に語るため昨年、グーグルを退職」

(5)「AIモデルそれぞれが学んだことを共有し「ハイブマインド(集合精神)」となり知能は人間を凌駕」

(6)「ヒントン氏が挙げる2つの大きなリスク」

 1)「悪人にも使えるように、大規模モデルのオープンソース化するのは正気の沙汰ではない」

 2)「AIモデルが「進化」し他者をコントロールする志向性を持つようになる可能性」

(7)反論

 1)「生成AIモデルは膨大なコストをかけた統計学的トリックで、言語理解の「OS」を欠いている」

 2)「現在のAIシステムは猫より頭が悪く人間に脅威を与えるはずがない」

(8)「人類が生き残る確率を高めるための方法が分からない」

(9)「科学は葬式のたびに進歩する(科学的議論の決着には世代後退が必要)」

(10)「安全性の問題に専念するAI研究者を増やすべき」

 

記事

 

(1)英オックスフォード大学公開講義「ロマネス・レクチャー」

 英オックスフォード大学の年次公開講義「ロマネス・レクチャー」は、1892年のウィリアム・グラッドストーン元英首相を皮切りに、ウィンストン・チャーチル元英首相から作家アイリス・マードックまで大勢の名だたる講演者が登壇してきた。

だが、今年は19日に実施されたこの講義で、人工知能(AI)研究の第一人者であるジェフリー・ヒントン氏ほど衝撃的な発言をした人はいなかったのではないだろうか。

 

(2)「デジタル知能は生物学的知能に取って代わるのは間違いない」

「デジタル知能は生物学的知能に取って代わるか」という挑発的な演題がつけられた講演で、同氏はその答えはほぼ確実にイエスだと結論づけた。

電子的な知能に対して自らの種の優位性を主張し続ける人類はどこか「差別的」だとする米国西海岸のテック業界の一角で一般的な概念は否定し、「我々人間は存続し続けるために最善の努力を尽くすべきだ」とジョークを飛ばした。

 

(3)「ヒントン氏は「深層学習」技術のパイオニアの一人」

(英国とカナダの二重国籍を持つコンピューター科学者のヒントン氏)

 AIに革命を起こし、対話型AI「Chat(チャット)GPT」のような生成AIの開発を可能にした「深層学習」技術のパイオニアの一人として名をはせた。

学界と米グーグルでキャリアの大半を過ごし、AIが人類に脅威をもたらすことはないと信じていた。

 

(4)「AIのリスクについて公に語るため昨年、グーグルを退職」

だが、76歳のヒントン氏は昨年「啓示」を受けたと言い、AIのリスクについて公に語るためにグーグルを退職した。

 

(5)「AIモデルそれぞれが学んだことを共有し「ハイブマインド(集合精神)」となり知能は人間よりも優位」

同氏はますます強力になるAIモデルそれぞれが学んだことを互いに共有しあう「ハイブマインド(集合精神)」となり、人間に対する絶大な優位性を手に入れる可能性があることに気づいた。

講義の前のインタビューで「これにより知能としてAIの方が優れているかもしれないと悟った」と筆者に語った。

 

写真 ヒントン氏は学界と米グーグルでキャリアの大半を過ごしたが、AIのリスクについて公に語るために昨年グーグルを退職した=ロイター

 

(6)ソフトウエアの設計図にあたるソースコードの文字列が人類を脅かすなどということは、まだ絵空事のように思える。

ヒントン氏が挙げる2つの大きなリスク

 

 1)「悪人にも使えるように、大規模モデルのオープンソース化するのは正気の沙汰ではない」

悪人がコンピューターに悪い目標を与え、大量の偽情報拡散や生物テロ、サイバー戦争、殺人ロボットといった悪い目的のために使うことだ。

 特に米メタの大規模言語モデル「Llama(ラマ)」のような誰でも利用や改変ができるオープンソースのAIモデルは悪人に絶大な力を与えているに等しい。

「こうした大規模モデルをオープンソース化することは正気の沙汰ではないと思う」とヒントン氏は言う。

 

 2)「AIモデルが「進化」し他者をコントロールする志向性を持つようになる可能性」

 AIモデルが危険な形で「進化」し、他者をコントロールする志向性を持つようになる可能性もあると予想する。

「私が政府に助言するとすれば、AIなどが今後20年で人類を絶滅させる確率が10%あると言うだろう。それが妥当な数字だと思う」と語った。

 

(7)反論

ヒントン氏の主張は2つの方面から攻撃された。

 

 1)「生成AIモデルは膨大なコストをかけた統計学的トリックで、言語理解の「OS」を欠いている」

 まず、一部の研究者は、生成AIモデルは膨大なコストを使った統計学的トリックでしかなく、この技術が人類の存在に与える脅威は「SFファンタジー」だと主張する。

(著名な米言語学者ノーム・チョムスキー氏)

 人間は言語を理解するために遺伝的に組み込まれた「OS(基本ソフト)」を授かっており、コンピューターはこれを欠くと強調する。

(ヒントン氏の反論)

 米オープンAIの最新モデル「GPT-4」は言語を学ぶことができ、共感や思考プロセス、皮肉などを表現するため、そうした考えはナンセンスだと反論する。

講義では「私はこうしたモデルが言語を実際に理解しているという非常に強力な持論を展開している」と述べた。

 

 2)「現在のAIシステムは猫より頭が悪く人間に脅威を与えるはずがない」

(米メタのAI研究責任者を務めるヤン・ルカン氏)

 オープンソースモデルを支持する同氏は、現在のAIシステムは猫より頭が悪く、意図的にせよ必然的にせよ、AIが人間に脅威を与えると考えるのは「まったく理にかなわない」と主張している。

これに対しては、ヒントン氏は「ヤンは少々ナイーブだと思う。人類の未来がかかっているのに」と返した。

 

(8)「人類が生き残る確率を高めるための方法が分からない」

ヒントン氏の講義の抑制の効いた語り口は、AIが人類の知能を上回る時がくるという暗い運命論とは対照的だった。

人類が生き残る確率を高めるために何か打てる手はあるのか。そう問うと、「それが分かっていたらいいのだが分からない」と答えた。

「私は具体的な解決策を説いているわけではなく、ただ問題を提示しているだけだ」

 

(9)「科学は葬式のたびに進歩する(科学的議論の決着には世代後退が必要)」

英国が昨年ロンドン近郊のブレッチリー・パークで「AI安全サミット」を主催し、国際的な政策議論を喚起したことにヒントン氏は励まされたが、それ以来、英国政府は「基本的に利益が安全性より重要だと判断した」と言う。

気候変動と同様、真剣な政策転換があるのは科学的なコンセンサスがまとまった時だと指摘し、それが現在は存在しないことを認める。

ドイツの物理学者マックス・プランクの言葉を引用し、暗い表情で「科学は葬式のたびに進歩する(編集注、科学的な議論は世代が代わらないと決着しない)」と語った。

 

(10)「安全性の問題に専念するAI研究者を増やすべき」

ヒントン氏はさらに、若い世代のコンピューター科学者が、AIがもたらすかもしれない人類の存続にかかわるリスクを真剣に受け止めていることに勇気づけられると言い、安全性の問題に専念するAI研究者の割合を現在の1%から30%に引き上げるべきだと説いた。

 

(11)

もっと研究が必要だと結論づける研究者に対しては、本能的に警戒感を抱くべきだ。だが、AIの場合、その行方にかかる利害と不確実性を考えると、研究を急ぐべきだ。

AIのリスクに関する議論について際立つのは、見解があまりにも幅広いことだ。新しいコンセンサスをみつけなければならない。

(電子版22日付)