私は歴史や事件などの一次資料を探すときに、めんどくせぇという理由からよくAIに問うのだけれど、Geminiに歴史的な問いかけをすると凄まじいほどの確率でハルシネーション(生成AIが事実とは異なる情報や、論理的に矛盾する内容を、もっともらしく自信満々に回答してしまう「捏造」現象)を起こします。

 

これは「ユーザーにとって望ましい解答を導く」設計だからそうなるのだと言えばそうなるのだけれど、一時期同じようにその傾向があったChatGPではだいぶ解決されて今はほとんど見なくなりました。

 

たとえば今日こんなニュースがあったので

 

 

そういえば、明治の昔に日本で展示されたミケランジェロのダビデ像の「ちんこ」が卑猥だからという理由で美術展の主催者が「ちんこ」に張り紙をしたという都市伝説があったなと思って調べてみると、

 

Geminiでは「1903年(明治36年)、大阪で開催された第5回内国勧業博覧会でそれは起きました」と言い切ってしまっているんですよね。

 

ところがChatGPTでは、

これは黒田清輝の「腰巻事件」と、

 

 

最近の大阪でのダビデ像に対する苦情と

 

 

これに明治期の裸体論争を統括して、Geminiの解答について

 

「質問者が望む、質問者が喜びそうな解答としての『物語』を新たに紡ぎ上げたもので典型的なハルシネーションである」と正確に見抜いた解答を示して寄越します。

 

こうやってみると、なにかのファクトチェックをする場合でもGeminiはちょっと頼りないかなという感じがしますね。