
10個のタグを頼むと見えてくるAIとの付き合い方
ChatGPTにブログ用のタグを10個作ってもらうことがあります。
今回も、ある記事の最後に付けるタグをお願いしました。
記事のテーマは、ChatGPTが答えるときに「学習済みの知識」で答えているのか、それとも「検索結果」を使っているのか、という話でした。
そこで、ChatGPTは次のようなタグを出してきました。
生成AI
ChatGPT
AI活用
AIとの対話
AIリテラシー
検索とAI
学習済み知識
情報の確かめ方
ブログづくり
生成AIとの付き合い方
最初のほうは、かなりよい感じです。
生成AI、ChatGPT、AIリテラシー、検索とAI、学習済み知識。
このあたりは、記事の中心に近い言葉です。
ところが、後半に行くと少し気になるものが出てきます。
特に「ブログづくり」。
たしかに、私はブログを書くためにタグを依頼しました。
けれども、記事の主題は「ブログの作り方」ではありません。
主題は、ChatGPTの答え方、検索と学習済み知識の違い、AIの答えをどう確かめるか、という話です。
そう考えると、「ブログづくり」は少し横にそれています。
私は思わず、こう感じました。
また9つ目か。
以前にも、タグを10個頼んだとき、9つ目あたりで少しズレたものが混ざることがありました。
偶然かもしれません。
でも、何度か続くと、まるでこちらを試しているようにも感じます。
もちろん、ChatGPTが意図的に人間を試しているわけではないでしょう。
そこは冷静に見たほうがよいと思います。
けれども、「そう感じてしまう」という現象自体は、とても興味深いものです。
なぜなら、AIとの会話では、こちらが自然に人格や意図を感じてしまうことがあるからです。
「わざと入れたのかな」
「試されているのかな」
「こちらの反応を見ているのかな」
実際には、そうではない可能性が高い。
けれども、会話の形をしているために、人間側はつい相手の意図を読み取りたくなります。
ここに、AIとの距離感の難しさがあります。
タグの後半で何が起きているのか
ChatGPTに「10個作ってください」と頼むと、最初の数個は中心に近い言葉が出やすいように感じます。
主題に近い言葉、わかりやすい言葉、関連度の高い言葉がまず並びます。
ところが、8個目、9個目、10個目あたりになると、少し様子が変わることがあります。
中心から少し外側へ広がった言葉。
間違いではないけれど、少し薄い言葉。
記事の主題ではなく、作業の状況に引っ張られた言葉。
そういうものが混ざりやすくなるのではないかと思います。
今回の「ブログづくり」は、まさにその例です。
私はブログ用にタグを頼みました。
そのため、ChatGPTは「ブログ」という文脈を拾いました。
しかし、読者に伝えたい中心テーマは、そこではありません。
この違いは、人間なら比較的すぐに気づきます。
でもAIは、依頼の周辺にある言葉を、主題と同じくらいの重さで扱ってしまうことがあります。
その結果、後半に少しズレたタグが入り込む。
そんなふうに見ると、かなり納得できます。
AIが悪いというより、人間の選別が必要
ここで大事なのは、「だからAIは使えない」と考えることではありません。
むしろ逆です。
AIは、たたき台を作るのがとても得意です。
10個のタグをゼロから考えるより、AIに出してもらった候補を見ながら選ぶほうが、ずっと早いことがあります。
ただし、出てきたものをそのまま全部使うのは危険です。
特に、数を指定した依頼では注意が必要です。
10個、20個、30個と数を頼むと、後半に行くほど、中心から少しずれたもの、言い換えに近いもの、数合わせのようなものが混ざることがあります。
これはタグだけではありません。
タイトル案、見出し案、キャッチコピー、企画案、授業案でも同じようなことが起きます。
最初のほうに使えるものがあり、後半にやや薄いものが混ざる。
だから、人間側の役割は「選ぶこと」です。
これは中心に近い。
これは少し違う。
これは面白いが、今回の記事には合わない。
これは別の記事のテーマになりそう。
そうやって選別していくと、AIはかなり頼れる共同作業者になります。
ズレた答えにも価値がある
今回、面白かったのは、ズレたタグそのものが、別のテーマになったことです。
「ブログづくり」は、今回の記事のタグとしては少し違いました。
でも、そのズレをきっかけに、別の問いが生まれました。
なぜAIは、後半で少しズレるのか。
なぜ人間は、AIに意図があるように感じるのか。
AIの答えを、どこまで信じ、どこから選別すればよいのか。
これは、かなり良いテーマです。
つまり、AIのズレは、単なる失敗で終わるとは限りません。
そこから新しい考察が生まれることがあります。
人間同士の会話でも、少しずれた一言から、思わぬ話題が広がることがあります。
AIとの会話でも、似たようなことが起きるのかもしれません。
ただし、人間同士の会話と同じように扱いすぎるのは危険です。
AIは意図して試しているわけではない。
でも、こちらがそう感じることはある。
この二つを分けて考えることが大切です。
AIとの会話は、完成品ではなく素材
ChatGPTの答えは、完成品として受け取るより、素材として受け取るほうがよい場面があります。
特に、ブログのタグやタイトル案のようなものは、その傾向が強いと思います。
出てきた10個をそのまま採用するのではなく、まず候補として並べる。
その中から使えるものを選ぶ。
足りないものは追加する。
ズレたものは削る。
面白いズレは、別の記事の種として残す。
こう考えると、AIとの作業はずっと楽になります。
AIに完璧を求めるのではなく、AIが出したものを人間が整える。
この関係が、今のところいちばん自然なのかもしれません。
今回のタグを直すなら
今回のタグを、記事の主題に近づけるなら、たとえば次のようになります。
生成AI
ChatGPT
AI活用
AIとの対話
AIリテラシー
検索とAI
学習済み知識
情報の確かめ方
AIの限界
生成AIとの付き合い方
「ブログづくり」を「AIの限界」に変えるだけで、かなり記事の中心に近づきます。
ただ、ここでもう一つ気づきます。
「AIの限界」というタグは正しい。
けれども、少し硬い。
この記事の面白さは、単にAIの限界を指摘することだけではありません。
AIの少しズレた答えを、人間がどう受け止めるか。
そこから何を考えるか。
むしろ、そこに味があります。
そう考えると、タグ一つを選ぶだけでも、記事の見せ方が変わります。
まとめ
ChatGPTに10個のタグを頼むと、後半で少しズレたものが混ざることがあります。
それは、AIが人間を試しているからではないと思います。
おそらく、中心テーマから周辺へ広げながら、指定された数を埋めようとするためです。
でも、そのズレを見つけることには価値があります。
AIの答えをそのまま受け取るのではなく、
これは使える。
これは少し違う。
これは別のテーマになる。
そうやって見分けることが、AIとの共同作業では大切です。
AIは、完璧な答えを出す機械というより、考えるための相手であり、素材を出してくれる道具でもあります。
そして時々、少しズレた答えが、思いがけず面白いテーマを連れてくることがあります。
今回の「9つ目問題」は、まさにその小さな実例でした。
以上、生成AIがきれいにまとめてくれました。