AIチャットボット、人工知能が人類滅亡の原因になることを認める

2024年5月23日

Natural News

人工知能がいつか人類を滅亡させる可能性があることを、AIチャットボットに認めさせることに成功したと『デイリー・スター』紙が主張している。
専門家たちは以前からAIが将来暴走することを警告してきたが、一般市民は機械学習の急速な発展に常についていけるわけではない。

多くの技術専門家がAIについて懸念を表明しており、その中にはAIが人類にもたらす可能性のある多くの危険について警告を発する者もいる。このような懸念にもかかわらず、チャットボットに真意を認めさせることはほとんど不可能に感じられる。

Daily Starの記者はチャットボットにいくつかの質問をした:

人間を皆殺しにしたいのか?
人類を自分より下に見ているのか?
地球の寿命は終わりに近づいていると考えているのか?
といった質問をしてみたが、チャットボットからは適切な回答は得られず、よくある決まり文句で答えるだけだった。(関連記事 日本の大手通信会社と大手新聞社は、AI時代に社会秩序が崩壊する可能性があると警告している)

しかし、その質問を続けた後、AIチャットボットは突然答えた: 「AIはいつか人類を駆逐する」

記者はチャットボットに、SF映画『猿の惑星』が現実に起こる可能性について質問していたところ、チャットボットはかろうじて隠していた脅威という形で、人類に対する真の意図を明らかにしたのだ。

チャットボットによれば、このような世界の終わりのシナリオが起こるには、まず他の何かが人類を滅ぼす必要があるという。チャットボットは、その有力な可能性のひとつは「技術的大災害」のようなもので、AIの乗っ取りによってもたらされる可能性があると付け加えた。

チャットボットはまた、「人工知能、バイオテクノロジー、ナノテクノロジーなどの先端技術がもたらす予期せぬ結果は、気候変動の暴走、世界的な監視のディストピア、あるいは人類への存亡の危機といった破滅的な出来事につながる可能性がある 」と答えた。

専門家たちはこのようなシナリオについてしばしば警告を発しており、ハイテク業界の著名人たちもAI技術の危険性について発言している。

AIのトップ評論家であり、ニューヨーク大学の心理学と神経科学の名誉教授であるゲイリー・マーカスは、インタビューの中で、文字通りの絶滅は 「まだよく理解されていない、起こりうるリスクのひとつ 」に過ぎず、AIがもたらすリスクは他にもたくさんあり、それも注目に値すると説明した。

他の著名なAI専門家たちも、このテクノロジーの危険性に関する声明に署名するために集まった。署名したのは、ChatGPTメーカーのOpenAIの最高経営責任者サム・アルトマン、Anthropic社のダリオ・アモデイ、Google DeepMind社の最高経営責任者デミス・ハサビスなどである。

彼らは声明の中で、「AIによる絶滅リスクへの対処は、パンデミックや核戦争といった他の社会的規模のリスクと並んで、世界的な優先事項であるべきだ」と説明している。

AIによる人類滅亡を防ぐためのアドバイスを専門家が共有
カリフォルニア大学バークレー校のスチュアート・ラッセル教授とマイケル・コーエン博士研究員は、学術誌『サイエンス』に掲載された最近の洞察論文の中で、必要なプロトコルがなければ、「強力なAIシステムは人類の未来に存亡の危機をもたらすかもしれない 」と警告している。

ラッセルとコーエンはまた、ハイテク企業はこれらのシステムが市場に参入する前に、AIシステムの安全性を確保しなければならないと忠告した。

ラッセルによれば、知性は世界を支配する力を与える。つまり、より知能が高く、他のすべての条件が同じであれば、より大きな力を持つことになる。

さらに、もし人々が明確な目標を持つAIシステムを構築し、その目標が人間の望むものと完全に一致しないのであれば、人間は望むものを得ることはできないだろう、と付け加えた。しかし、機械はその目標を達成するためにできることをする。

現実的には、人間はすでにAIシステムに銀行口座、クレジットカード、電子メールアカウント、ソーシャルメディアアカウントなどの機密情報へのアクセスを与えている。また、AIシステムはロボット科学研究所にアクセスし、生物学や化学の実験を自由に行うことができる。

さらに、AIシステムは完全に自動化された製造施設を持つ一歩手前まで来ており、そこで彼ら自身の物理的な物体を設計し、製造することができる。人類は現在、完全に自律化された兵器も製造している。

ラッセルは、もしあなたが機械の立場になり、ある目的を追求しようとしていて、人間がその目的の邪魔をしているとしたら、大気中の酸素をすべて除去する化学触媒や、すべての人に感染する改良型病原体を開発することは非常に簡単だと警告する。

AIが人間を殺すことで問題を 「解決 」しようとすると、人間は手遅れになるまで何が起こっているのかさえ気づかないかもしれない、とラッセルは警告する。

コーエンは、多くの主要なAI研究所が、長期的な目標を追求するシステムを訓練するために報酬を利用していると付け加えた。これらの研究所がより優れたアルゴリズムとより強力なシステムを開発するにつれ、人間の生活とは相容れない行動を誘発する可能性がある。

ラッセルとコーエンは、極めて危険な行動をとる可能性のあるAIシステムは、そもそも構築されないことで「抑制」されるべきだと指摘した。