ChatGPTは何時間も "絶対的に "狂い続け、誰もその理由を説明できない

2024年2月27日

Natural News

オープンAIの人気人工知能チャットボット「ChatGPT」が2月20日、"完全に "おかしくなった。
RedditやXのようなソーシャルメディア・プラットフォームのChatGPTユーザーによると、人気の人工知能チャットボットは、基本的なクエリに対して長く、一見支離滅裂な回答を提供した。チャットボットが不規則な振る舞いを見せ始め、意味不明なものからシェイクスピアのようなものまで、さまざまな返答を返すようになったのだ。(関連記事 ブルース・"ケイトリン"・ジェンナーが男性であることを認めざるを得なくなった)

 

 

「ChatGPTは一時的に狂ってしまったのか?Groqについて話していたら、シェイクスピア風の暴言を吐き始めた」。

別のユーザーはこう書いている。「あるユーザーがChatGPTのサブレディットで質問したところ、シェイクスピア風の暴言を吐き始めた。誰かが類語辞典を投げつけて、"この本の単語を全部使え "と言ったようなものだ」。

ある例では、ChatGPTはあるユーザーにこう言った: "AIが部屋にいるようなセリフを続けよう"。コーディングについての会話を始めたユーザーは、この反応をRedditで共有し、こうコメントした: "午前2時にこれを読むのは怖い"

一方、XのChatGPTユーザーも不満をあらわにした。

"ChatGPTが壊れた。返信が常にゴミのようだ。最初はいいんだけど、だんだん酔ってくる。" 別のユーザーは奇妙な出会いを共有し、チャットボットにビル・エヴァンス・トリオのおすすめレコードを尋ねたところ、"Happy listening!"のループで応答したと述べた。- という予想外の無関係な答えが返ってきたという。

不具合の現れ方はさまざまだった。ほとんどのユーザーは、一晩中、非連続、不正解、繰り返しのフレーズを経験した。言語モデルが一時的に崩壊したのではないかと疑うユーザーもいれば、チャットボットが覚醒したのではないかと冗談めかして推測するユーザーもいた。

ジェミニとガブのAIもレールから外れる
この間に「レールから外れた」AIチャットボットはChatGPTだけではなかった。Gab AIとグーグルのGemini AIも誤作動を起こしたと報じられている。

複数の報告によると、ジェミニのユーザーがチャットボットに画像生成を依頼したところ、白人を配置することを拒否した。その代わりに、歴史的に白人の人物を多人種のキャラクターに変換した。この論争は、ジェミニのローンチからわずか2週間後に起こったもので、広範な怒りにつながった。その結果、グーグルは謝罪を発表し、問題を修正するためにAI画像ジェネレーターの人物作成機能を一時停止することになった。

一方、保守派のソーシャルメディア・プラットフォームGabは、アドルフ・ヒトラーとウサマ・ビンラディンのAIチャットボットを導入した。Gabのチャットボットを支えるテクノロジーはまだ不明だが、アンドリュー・トーバCEOは、同社のユーザーベースは1日に2万人ずつ増えていると主張している。Gab AIはGrokとともに、GeminiやChatGPTのような「覚醒した」AIチャットボットに代わるものだ。

これらの事件は政治的な所属を問わず、保守派もリベラル派もAIチャットボットへの不満を表明している。企業向けのAIツールとして広く受け入れられているOpenAIは、その製品の信頼性の低さを見せつけ、AI開発の急速なペースに対する懸念が再燃した。

これに対し、OpenAIの共同設立者であるジョン・シュルマンは、アライメント技術の発展途上であることを認めざるを得なかった。

「アライメント(モデルの行動や価値観を制御すること)は、まだかなり若い分野です。とはいえ、これらの問題を解決し、より良いアライメント技術を開発するために、このような世間の声は重要です」と彼はツイートした。