英文ブログ The Qualia Journalの下のエントリーをグーグル翻訳しました。

 

ChatGPT and illusion of intelligence.
 

 

大規模言語モデルの興味深い点の 1 つは、多くの幻覚があることです。

ChatGPT などの LLM によって生成された、事実に反するステートメントは面白いものですが、生成 AI の実用的なアプリケーションを考慮すると、潜在的に危険です。 AIの安全性をテストする上で、幻覚の頻度が重要な尺度として取られることは理解できます。

一方で、人間側にも多くの幻覚があります。 LLM とやり取りするとき、これらのシステムが本当にインテリジェントであるという錯覚を覚えます。 Google の研究者は、彼らが意識的であると確信し、2022 年に内部告発者になったことで有名です。GPT4 などの LLM が知的または意識的であるという認識は、背後にある構造とダイナミクスを調べると、特に後者の場合、幻想であることが判明する可能性があります。 これらのシステム。 そうでなければ、GPT4 や他の LLM をツールとして非常に喜んで扱い、彼らの意識の流れにおける経験の質を無視しているという事実をどのように正当化できるでしょうか?

とりあえず意識の問題は脇に置いておこう。 考えてみれば、知性は究極的には単なる幻想であり、一連の客観的なテストによって検証することはできません。 これは、人工エージェントだけでなく、人間にも当てはまります。 エージェントが知的であると信じるとき、粒子の質量や電荷の場合のように明確な尺度はありません。 LLM が時折見せる有名な幻覚のように、問題のエージェントが知的であるという印象しかありません。

したがって、暫定的な結論は、人間またはその他に関する知性の評価に関しては、すべて作り話であるということになります。 チューリング テストは当初から幻想に基づいていたため、もはや有効な知性の検証と見なされなくなったのも不思議ではありません。 幻の領域を超えた知性を解読するという実に興味深い挑戦はここから始まります。

 

(The Qualia Journal翻訳)