AIは常に嘘をつく、とAppleのティム・クックが認める。

2024年6月14日

The National Pulse

AppleのCEO、ティム・クックは、ChatGPTのような大規模な言語モデル(LLM)などの人工知能(AI)プログラムは、今後もユーザーに誤った情報を提供し、嘘をつく可能性が高いと述べています。クックは、AppleがAIに参入することで「真実を伝える」チャットボットが誕生するかとの質問に対し、ワシントン・ポスト紙の最近のインタビューで「100%ではない」と答えました。同氏は、同社のチャットボットは「非常に高品質なものになる」と確信していると強調したが、「100%完璧だとは決して言わない」と付け加えた。

 

LLMを搭載したチャットボットのようなAIツールのユーザーは、AIが生成した不正確さを表す言葉として使われる「幻覚」と呼ばれる現象にますます遭遇するようになっています。これらのエラーは、意図的なもの(つまり、作成者がAIにプログラムしたもの)の場合と、AIが学習し知識を拡大する過程で偶発的に発生するものの2種類があります。前者のケースが、アメリカ政治の火種となってきています。大手テクノロジー企業が開発したAI画像生成ツールの一部が、多様性、公平性、包摂(DEI)を目的として意図的に不正確な結果を生成しているためです。

 

The National Pulse は 3 月、Adobe の Firefly AI 画像生成ツールが白人を描こうとせず、マイノリティを歴史的に不適切な文脈に挿入することが常態化していると報道しました。Google の Gemini AI ツールでも同様の問題が発生し、世間の反発を受けて一時使用停止に追い込まれました。AI 画像生成ツール Midjourny は最近、ドナルド・トランプやジョー・バイデンを題材にした画像の作成を完全にブロックしました。この措置は、選挙に関する誤情報の拡散を防ぐためのものだと説明しています。

 

クック氏のこの発言は、アップルが今週初めに開催された世界開発者会議で、機械学習ツールの数々を発表し、AI分野に正式参入したことを受けてのものだ。