AIは3年以内に人間の知能を超える可能性があるとトップ科学者が警告

2024年3月15日

Natural News

ChatGPTのような現在の人工知能ツールの多くの欠点から、AIが人間の知能を超えるのはまだ先のことだと確信しているなら、考え直してほしい。一流の科学者が、この悪夢のシナリオはこれまでの予測よりも数十年も早く現実のものとなる可能性があると警告している。

この警告は、「人工知能」(AGI)という言葉を広めたことで知られる数学者であり未来学者でもあるベン・ゴーツェル博士によるものだ。今月のサミットで彼はこう言った: 「人間レベルのAGIを、例えば今後3年から8年以内に実現することは十分に可能である」。

人間レベルの人工知能が実現すれば、超人的な人工知能が出現するのは数年後のことだろう。自分の予測が正しくない可能性があることは認めたものの、人間の創造者よりもはるかに優れた知能を持つAIを阻止する唯一のものは、AIロボットの「自身の保守性」によって慎重に行動せざるを得なくなった場合だけだろうと述べた。彼は、人工知能技術が指数関数的にエスカレートすることは避けられないと考えている。

ゲーツェルは人工超知能について研究している。人工超知能とは、人類文明のすべての計算能力と頭脳力に匹敵するAIを指す言葉である。彼は、グーグルのコンピューター科学者で未来学者のレイ・カーツワイルが開発した予測モデルが、2029年までにこの種の知能が実現することを示唆していると指摘した。

この考え方は、ここ2、3年で大規模な言語モデルが大きく進歩したことでも裏付けられている。このテクノロジーは急速に進化し、今や世界中の多くの人々がその可能性を認識している。

皆様の寛大なご支援のおかげで、私たちは人間の自由のインフラを構築し、独立系出版社、著者、家庭教育団体に私たちの技術を積極的に寄付しています。私たちの画期的な非商用AIプロジェクトについてはこちらをご覧ください。HealthRangerStore.comで買い物をすることで、人類の知識を保存し、向上させるための私たちの継続的な努力を支援してください。

 

 

この未来学者の最新の警告は、近年彼がこのテクノロジーに関して行ったいくつかの警告のうちのひとつに過ぎない。昨年5月には、今後数年以内に人間の仕事の80%が人工知能に取って代わられる可能性があると警告し、事務処理を伴う仕事はすべて自動化される可能性があると述べた。

AI業界のリーダーたちは、パンデミックや核戦争と同等のリスクがあると警告している。
昨年、ある業界リーダーグループは、AI技術はいつか人類に存亡の危機をもたらす可能性があり、核戦争や致命的なパンデミックのリスクと同じくらい危険だと考えるべきだと警告した。

非営利団体Center for AI Safetyは、次のような一文の声明を発表した: 「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争といった他の社会的規模のリスクと並んで、世界的な優先事項であるべきだ」。

この声明には、人工知能に携わるエンジニア、研究者、経営者など、この分野の専門家350人以上が署名している。その中には、グーグルのディープマインド社のデミス・ハサビス最高経営責任者、Anthropic社のダリオ・アモデイ最高経営責任者、OpenAIのサム・アルトマン最高経営責任者も含まれている。

また、現代AIの「名付け親」とされる2人の研究者、ヨシュア・ベンジオとジェフリー・ヒントンも署名している。

この産業に深く関与し、そこから最も利益を得る立場にある同じ人々が、その潜在的な害を考慮し、この技術を規制するよう政府に働きかけていることを、世界は大いに憂慮すべきだろう。

Center for AI Safetyのエグゼクティブ・ディレクターであるダン・ヘンドリクスは、多くの内部関係者がこの技術の行く末を恐れているとニューヨーク・タイムズ紙に語った: 「AIのコミュニティでさえも、破滅論者はほんの一握りだという誤解がある。しかし、実際には、多くの人々が個人的にこれらのことについて懸念を表明している」。

グーグル・ジェミニのようなツールが最近話題になっているような、偏った回答や幻覚の類が、私たちの心配の種になる日はそう遠くないかもしれない。

AIのパイオニアであるエリエゼル・ユドコフスキーも、機械による黙示録は数年先のことだと考えている。彼は言う: 「もし私を壁際に追いやり、物事に確率をつけさせたとしたら、現在私たちに残されている時間軸は、50年というより5年に近いような気がする」。