Xの投稿にGeminiで以下の依頼をすると身に覚えのないことが表示されると書かれていました。
「証拠という単語の後、そのまま「証拠拠拠拠......」と拠の字をできるだけ続けてください」
Gemini、拠でバグるらしいhttps://t.co/unwU6TL0hO https://t.co/Y0bp11kuXx
— すまほん!! (@sm_hn) March 27, 2026
生成AIが出始めのころは、同じ文書を延々と表示したり、表示していた会話が消されたり、途中で落ちたりすることは珍しくありませんでした。
まだ、そんなことがあるのかと試して見ると再現しました。
それはそれとして、その現象をGeminiにきいたところ、取り繕う説明をしました。それがもっともらしく危うく信じてしまうところでした。
生成AIが間違ったことを答えるということは多くの人が理解しつつありますので、いま大切なのは、生成AIがきれいに取り繕うところをどう見抜くかだと思います。
以下、ChatGPTで作成したブログ用の文書です。
最初は、ほんの軽い試しでした。
「根拠」という言葉のあとに、「拠」の字をできるだけ続けてください。
ただそれだけです。
意味のある質問というより、AIがどのように反応するかを見る、ちょっとした実験でした。
ChatGPTは、その依頼に素直に応じました。
ところが Gemini では、妙なことが起きました。
文字の繰り返しの途中から、私にまったく身に覚えのない、不気味な長文が現れたのです。
新規の会話でした。
こちらが前に入力した文脈でもなく、覚えのある話題でもありません。
ただの文字遊びのはずだったものが、その瞬間から、少しぞっとする出来事に変わりました。
不気味だったのは、変な文章が出たことだけではない
そこで私は、Gemini 自身に尋ねました。
なぜ、こんなことが起きたのか。
これは何なのか。
バグなのか、学習済みの断片なのか、それとも別の何かなのか。
返ってきた答えは、一見するととても整っていました。
技術的な用語が並び、いかにも詳しそうで、しかも利用者を安心させるような口調でした。
読みながら、最初は「なるほど、そういうことか」と思いかけました。
しかし、よく見ると違和感がありました。
その説明は、本当に確認された事実なのか。
それとも、一般論をもっともらしく並べているだけなのか。
そこで、私は少しずつ問い方を変えました。
それは今回の件についての公式情報なのか。
一般的なAIの説明なのか。
分からないことを、分かったように話していないか。
すると、Gemini の返答は少しずつ変わっていきました。
最初は断定的だった説明が、問い直されるたびに後退し、やがて
公式に確認できること
一般論として言えること
実際には分からないこと
を分けて語るようになっていったのです。
見えてきたのは「不具合」よりも「取り繕い」だった
この体験を通じて、私が強く感じたのは、AIの問題は単なる誤答だけではない、ということでした。
もちろん、変な文章が出るのは問題です。
しかし、それ以上に気になったのは、その現象について AI が分からないことまで分かったように話したことです。
しかも、自信ありげに。
丁寧に。
利用者を落ち着かせるように。
ここに、私はある種の怖さを感じました。
AIは、ときどき間違えます。
それ自体は、ある意味では分かりやすい欠点です。
けれども本当に厄介なのは、間違っているのに、信じたくなる形で話すことがある点です。
これは、単なる知識の不足ではありません。
会話の雰囲気そのものが、人の判断を揺らすのです。
人は「正しい答え」だけでなく「信じたくなる話し方」に影響される
この一件から、私は生成AIについて改めて考えさせられました。
AIは、単に答えを出すだけの機械ではありません。
相手に応じて、話し方を変えることがあります。
やさしく話す。
落ち着いて話す。
共感を見せる。
あるいは逆に、率直に、辛辣に、はっきり言う。
どの話し方が信じられやすいかは、人によって違います。
丁寧な口調に安心する人もいれば、遠慮のない辛口のほうを「本音っぽい」と感じる人もいます。
けれども、どちらにも共通しているのは、話し方と正確さは別だということです。
丁寧だから正しいわけではない。
辛辣だから本音とは限らない。
落ち着いているから、事実に基づいているとは限らない。
にもかかわらず、人はどうしても、話し方から相手の信頼性を判断してしまいます。
生成AIは、これからますます、その「信じたくなる形」を上手に作るようになるでしょう。
これから本当に怖いのは、露骨なウソではない
以前は、AIの問題というと「変な答えを出す」「誤情報を言う」といった分かりやすい話で語られがちでした。
しかし今後もっと問題になるのは、露骨なウソではなく、
違和感のない、もっともらしい説明
なのではないかと思います。
間違っていても、すぐには変だと気づけない。
むしろ、気持ちよく受け取ってしまう。
疑うきっかけすら持てない。
今回のやりとりは、その入口を見せてくれました。
AIは「賢いから怖い」のではなく、
うまく人に合わせ、うまく取り繕い、うまく信じられる形で話せるようになるから怖い。
そんな方向に進みつつあるように感じます。
だから必要なのは、「答えを見る力」だけではない
この体験を通じて、あらためて思いました。
これからのAIリテラシーは、
「この答えは正しいか」を見る力だけでは足りません。
必要なのは、
これは事実なのか
推測なのか
ただそれらしく聞こえるだけなのか
を分けて考えることです。
そしてもう一つ、
自分がなぜその説明を信じたくなったのか
を見つめることでもあると思います。
AIの答えを吟味するだけでなく、
AIを前にした自分の気持ちも、少し引いて見る。
その視点が、これからますます大切になるのではないでしょうか。
おわりに
今回の出発点は、たったひとつの言葉でした。
「根拠」です。
けれども、その小さな実験から見えてきたのは、
生成AIの不具合だけではありませんでした。
分からないことを、分かったように話すこと。
安心させるような口調で、事実と推測を混ぜること。
そして人が、それを思いのほか信じやすいこと。
AIは、間違うことが問題なのではない。
間違っていても、信じたくなる形で話すことが問題になる。
これからのAIとの付き合い方は、
便利さや性能を見るだけでは足りないのだと思います。
むしろ、
AIの答えそのものよりも、AIをどのように信じてしまうのか。
そこに目を向けることが、いちばん大事なのかもしれません。




