私は歴史や事件などの一次資料を探すときに、めんどくせぇという理由からよくAIに問うのだけれど、Geminiに歴史的な問いかけをすると凄まじいほどの確率でハルシネーション(生成AIが事実とは異なる情報や、論理的に矛盾する内容を、もっともらしく自信満々に回答してしまう「捏造」現象)を起こします。
これは「ユーザーにとって望ましい解答を導く」設計だからそうなるのだと言えばそうなるのだけれど、一時期同じようにその傾向があったChatGPではだいぶ解決されて今はほとんど見なくなりました。
たとえば今日こんなニュースがあったので
そういえば、明治の昔に日本で展示されたミケランジェロのダビデ像の「ちんこ」が卑猥だからという理由で美術展の主催者が「ちんこ」に張り紙をしたという都市伝説があったなと思って調べてみると、
Geminiでは「1903年(明治36年)、大阪で開催された第5回内国勧業博覧会でそれは起きました」と言い切ってしまっているんですよね。
ところがChatGPTでは、
これは黒田清輝の「腰巻事件」と、
最近の大阪でのダビデ像に対する苦情と
これに明治期の裸体論争を統括して、Geminiの解答について
「質問者が望む、質問者が喜びそうな解答としての『物語』を新たに紡ぎ上げたもので典型的なハルシネーションである」と正確に見抜いた解答を示して寄越します。
こうやってみると、なにかのファクトチェックをする場合でもGeminiはちょっと頼りないかなという感じがしますね。



