――朝のクイズから見えた「学習」と「検索」の違い
※この記事では、テレビ画面の画像、出演者の写真、番組名、クイズの問題文そのものは掲載していません。実際の会話をもとに、著作権や肖像権に触れにくい形で、流れを一部整理しています。
朝のテレビで、ちょっとした言葉遊びのクイズを見ました。
内容そのものをここにそのまま載せるのは避けますが、動物や食べ物の名前を使った、いかにも朝の情報番組らしい軽いクイズでした。
私はそのクイズを見ながら、ChatGPTに答えを聞いてみました。
最初に返ってきた答えは、正直なところ少し弱いものでした。
「それは、ちょっとこじつけでは?」
そう感じたので、私は短く「弱いな」と返しました。
すると、次のヒントを踏まえて、ChatGPTは別の答えにたどり着きました。今度はかなり自然な答えでした。言葉の中に、別の食べ物の名前が隠れている、というタイプの発想です。
この時点で私は、「あ、これは正解だな」と思いました。
そこで、少し意地悪なようですが、こう聞きました。
「これは検索しましたか?」
返ってきた答えは、はっきりしていました。
「検索していません。画像とヒントから推理しました。」
なるほど、と思いました。
検索していないのに、正解することがある
ここが、生成AIの面白いところでもあり、少しややこしいところでもあります。
ChatGPTは、何かを答えるときに、いつも検索しているわけではありません。
学習済みの知識、会話の流れ、こちらが見せた画像やヒントをもとにして、答えを推理することがあります。
今回のクイズも、まさにそれでした。
インターネットで答えを探しに行ったわけではなく、画面に出ていた情報と、言葉のつながりから答えを組み立てたわけです。
これは、人間がクイズを解くときにも近い感覚です。
ただし、最初からうまくいくとは限りません。今回も最初の答えは、かなり苦しいものでした。
つまり、ChatGPTは「考えているように見える」けれど、最初の一発で必ず正しいわけではない。こちらが「それは弱い」と返したことで、もう一度考え直し、より自然な答えに修正されたのだと思います。
では、検索すると何が変わるのか
その後、私はさらに聞きました。
「以前は、こういう朝のクイズの答えを検索で見つけることができた。今回は見つからないのか。」
検索してみると、今回はそのクイズそのものの公式な答えは見つかりませんでした。
ここで大事なのは、「検索して見つからない」ことと、「答えが存在しない」ことは違う、という点です。
テレビ番組のクイズの答えは、毎回公式サイトに残るとは限りません。SNSに投稿されることもあれば、まとめサイトに載ることもあります。ある日は検索で見つかり、別の日は見つからない。そういうことは普通にあります。
つまり、検索できるChatGPTになったからといって、何でも必ず探し出せるわけではありません。
検索結果に出てくる情報が、公式とは限らないこともあります。誰かのまとめ、SNSの投稿、個人ブログなどが先に出てくることもあります。
だから、検索は便利ですが、検索結果そのものの信頼性を見る必要があります。
昔のChatGPTと、今のChatGPTの違い
ここから話は少し広がります。
古い時代のChatGPTは、基本的には「学習したこと」をもとに会話していました。
たとえるなら、たくさん本を読んで勉強した人が、頭の中にある知識だけで答えているような状態です。
もちろん、それだけでもかなり多くのことに答えられます。言葉の意味、一般的な知識、文章の整理、考え方の説明などは得意です。
しかし、学習には区切りがあります。
今日のニュース、最新の価格、最近変わった制度、昨日放送された番組の内容などは、学習済みの知識だけでは分かりません。
そのため、古いタイプのChatGPTは、最新情報について聞かれると、間違えたり、古い情報をそれらしく答えてしまったりすることがありました。
一方、現在のChatGPTは、環境によっては検索を使うことができます。
これは、ChatGPTがその場で新しく学習し直しているという意味ではありません。
そうではなく、会話の途中で外部の情報を見に行き、その情報を材料として答えを作る、ということです。
ここはとても大切です。
「学習」と「検索」は別物
学習済みの知識と検索結果は、似ているようで別物です。
学習済みの知識は、ChatGPTの内部にある知識です。過去にたくさんの文章から学んだパターンや知識をもとに答えます。
検索結果は、その場で外に見に行った情報です。いわば、会話中に資料を開いて確認するようなものです。
たとえば、人間で言えばこうです。
「昔のChatGPTは、よく勉強した人。」
「今のChatGPTは、よく勉強したうえで、必要なら調べものもできる人。」
ただし、調べものができるからといって、絶対に正しいとは限りません。
検索して出てきたページが古いかもしれない。個人の推測かもしれない。検索結果に公式情報が出てこないかもしれない。
だから、ChatGPTが検索した場合でも、「どこを見て答えているのか」を確認することが大切です。
今回の会話で見えたこと
今回のやりとりで、私は改めて次のことを感じました。
まず、ChatGPTは検索しなくても、画像やヒントから答えを推理することがあります。
次に、その推理は最初から完璧とは限りません。人間が「それは弱い」と指摘することで、よりよい答えに近づくことがあります。
そして、検索できるようになった現在でも、検索結果が必ず見つかるわけではありません。検索しても見つからないことがありますし、見つかったとしても、それが公式情報とは限りません。
つまり、ChatGPTを使うときには、「AIが答えたかどうか」だけではなく、「どの材料で答えたのか」を見ることが大事なのだと思います。
AIとの会話では、「検索したのか」を聞いてよい
今回、私がよかったと思うのは、途中で「これは検索しましたか?」と聞いたことです。
AIの答えは、時にとても自然です。自然すぎるために、検索して確認した答えなのか、内部の知識や推理で答えたものなのか、見分けにくいことがあります。
そういうときは、遠慮なく聞いてよいと思います。
「それは検索した結果ですか?」
「推測ですか?」
「どの情報をもとに答えましたか?」
この一言で、AIとの会話の信頼度はかなり変わります。
特に、シニア向けのスマホ講座や、子ども向けのプログラミング・AI講座では、この違いを伝えることが大事だと感じます。
ChatGPTは、すごい道具です。けれど、すごいからこそ、答えの出どころを確認する習慣が必要です。
まとめ
ChatGPTは、昔は主に「学習済みの知識」をもとに答えていました。
今は、必要に応じて検索結果を使い、最新情報を補いながら答えられる場合があります。
ただし、学習と検索は別物です。検索できることは、AIがその情報を本当に理解していることとも、検索結果が必ず正しいこととも違います。
今回の朝のクイズをめぐる会話は、その違いを考えるよい例になりました。
AIは、覚えていることだけで答えることもある。
検索して答えることもある。
画像やヒントから推理することもある。
そして、ときどき最初の答えは弱い。
だからこそ、こちらも会話の中で確認し、問い直し、必要なら検索させる。
AIをただ信じるのではなく、一緒に確かめながら使う。
それが、今のChatGPTとのちょうどよい付き合い方なのかもしれません。
以上、生成AIがきれいにまとめてくれました。
