OpenAI、AIの危険性に対処するチームを解散

2024年5月24日 //ラモン・トメイ//140ビュー

タグ: 

人工知能(AI)企業OpenAIは、いわゆる汎用人工知能(AGI)の 長期的な危険性を軽減することに専念していたチームを解散した。

 

サンフランシスコを拠点とするOpenAIは5月17日、スーパーアラインメントグループの終了を確認した。数週間前に解散が始まったグループのメンバーは、他のプロジェクトや研究活動に統合された。

 

「高度な人工知能を制御することに重点を置いていたOpenAIチームの解体は、そうした技術が規制当局から厳しく監視され、その危険性に対する懸念が高まる中で行われた」とヤフーニュースは報じた。

 

スーパーアラインメントチームの解散に続き、OpenAIの共同創設者イリヤ・スツケバー氏とチーム共同リーダーのヤン・ライケ氏は、このテクノロジー企業を退社すると発表した。Xの投稿で、スツケバー氏は約10年勤めた同社を退社すると述べた。同氏は同じ投稿でOpenAIを称賛し、同社の「軌跡はまさに奇跡的」だと評した。

 

「OpenAI が安全かつ有益な AGI を構築すると確信しています」と Sutskever 氏は、人間の認知能力と同等、あるいはそれ以上の性能を目指すコンピューター技術について付け加えた。ちなみに Sutskever 氏は、昨年 11 月に創設者兼 CEO の Sam Altman 氏を解任する投票を行った取締役会のメンバーだった。それにもかかわらず、スタッフと投資家の反発を受けて、Altman 氏は数日後に復職した。

 

ライケ氏のXへの投稿では、自身の退職についても触れられており、彼はOpenAIの従業員全員に対し、自分たちが構築しているものにふさわしい「厳粛な態度で行動する」よう促した。ライケ氏は「OpenAIは安全第一のAGI企業にならなければならない」と繰り返した。(関連記事:汎用人工知能がもたらすリスクとは?

 

人類の知識が攻撃を受けています。政府や大企業が検閲を利用して、栄養、ハーブ、自立、自然免疫、食糧生産、備えなどに関する人類の知識基盤を一掃しようとしています。私たちは、AI技術を使用して人類の知識を保護しながら、人間の自由のインフラストラクチャを構築しています。Brighteon.io で、分散型でブロックチェーンベースの検閲のない言論の自由プラットフォームをご利用ください。Brighteon.AI で、無料でダウンロードできる生成AIツールをご覧ください。HealthRangerStore.com で買い物をして、ラボでテストされ、認定れたオーガニック、非遺伝子組み換えの食品や栄養ソリューションを取り揃えたショッピングをし人類の自由のインフラストラクチャを構築する私たちの取り組みをサポートしてください。

 

アルトマン氏はライケ氏の投稿に応え、同社での働きに感謝し、同氏の退社を悲しんでいると述べた。「彼の言う通りだ。私たちにはやるべきことがまだたくさんある。私たちはそれを実行することに全力を尽くしている」とオープンAIのCEOは続けた。

 

ChatGPTの進化版が解散と離脱を呼ぶ

スーパーアライメントチームの解散と、Sutskever氏とLeike氏の退職は、OpenAIが同社の代表的なチャットボットChatGPTの高度なバージョンをリリースする最中に起こった。この高度なバージョンは、より高いパフォーマンス能力とさらに人間のようなインタラクションを誇り、すべてのユーザーに無料で提供された。

 

「まるで映画に出てくるAIのようだ」とアルトマン氏はブログで述べた。OpenAIのCEOは以前、AIとのやりとりの方向性を決めるインスピレーションとして、2013年の映画「Her」を挙げていた。「Her」は、セオドア・トゥオンブリー(ホアキン・フェニックス演じる)という人物が、サマンサ(スカーレット・ヨハンソン演じる声)という名のAIと関係を築いていく物語だ。

 

一方、スツケバー氏は昨年末、サンフランシスコで開催されたTED AIサミットでの講演で、「AGIは生活のあらゆる分野に劇的な影響を及ぼすだろう」と述べた。また、「デジタル脳が人間の脳と同等かそれ以上になる」日が来るだろうとも付け加えた。

 

WIREDによると、スーパーアライメントチームの解散後、より強力なAIモデルに関連するリスクに関する研究は、ジョン・シュルマン氏が主導することになるという。シュルマン氏は、トレーニング後のAIモデルの微調整を担当するチームの共同リーダーである。

 

OpenAIは、解散したスーパーアラインメントチームのスツケヴァー氏、ライケ氏、その他のメンバーの退職についてコメントを控えた。また、長期的なAIリスクに関する取り組みの将来についてもコメントを拒否した。

 

「最近の退職が、より人間に近いAIの開発や製品の出荷を目指すOpenAIの取り組みと何らかの関係があるという兆候はない」と同誌は指摘。「しかし、最近の進歩はプライバシー、感情操作、サイバーセキュリティのリスクに関する倫理的問題を提起している」

 

AIとその危険性に関するその他の記事については、 Robots.newsをご覧ください。

 

グレン・ベックが、OpenAI がChatGPT の最新バージョンで使用するために 彼女の声を盗んだというスカーレット・ヨハンソンの告発に関連する問題について説明している様子をご覧ください。

 

 

 

このビデオはBrighteon.comの High Hopes チャンネルからのものです。

 

その他の関連記事:

AIの先駆者は、新興のAI技術が人類を滅ぼす恐れがあるため、人類に残された時間はあと数年しかないと警告している。

 

原子科学者が終末時計を午前0時90秒にリセットしたことで、AIは地球と人類にとって「実存的リスク」と見なされるようになった。

 

AIは人類を滅ぼすのか?トップの専門家は「そうだろう」と述べ、核兵器やパンデミックと同様の「絶滅の危険」について警告している。

 

DeepLearning.AI の創設者が、グローバリストの WEF 年次総会で AI の危険性について警告。

 

OpenAIの研究者らは、急速に進歩するAI技術が人類を脅かすと委員会に警告した。

 

出典:

 

Yahoo! ドットコム

 

WIRED.com

 

ブライトン