チャットGPTはウソをつくことが多い、と言われています。
ご存じでしたか?
人間と違って、感情的に隠したいことがあってウソをつくのではありません。
情報源が正しくないから、結果的にウソをつくことになってしまう、という意味です。
ふと思いついて、昨日チャットGPTに聞いてみました。
Q
あなたができないことはありますか?
不得意なことはなんですか?
A
私の情報は2022年10月までのものなので、最新情報に関する内容は不得意です。
Q
それはどういうことですか?グーグルのように頻繁に更新されないんですか?
A
大規模な更新が必要となるため、直近の更新が2022年だったということです。
頻繁な更新はできません。
以上です。
今日、改めて株価のことをきいてみました。(トレンド情報なので)
Q
昨日(6/18)までの、日本とアメリカの株価の動きから言えることは?
A
アメリカの株式市場では、2024年に入ってから全般的に堅調な動きを見せています。
・・・以下略・・・
かなり詳細なデータを見せてきました。
トレンド記事、どうしてそんなに断言できるのか?とたずねたところ、
正式発表されている情報源を複数用いたデータだから、信ぴょう性が高い、との回答でした。
そうか。
AIだからもともとまとめるのは得意なんですよね。
新情報が少ない分野だったら、こうはいかなかったはず。
かなりウソつき文章になっている可能性が高い。
ネット上のデータをまとめるのはお手の物なので、生成AIではなくてAIとして機能するのは当然でした。
ブラウザ上に雑居している情報を取り込んで、類推記事を書く。
それはできること。
できないことは、新しい概念が世のなかに誕生したときに、それを使って応用編を生成すること。
私は勘違いしていました。
新しい情報を提供することが苦手、と思っていたのです。
でもそうではない。
AIはもともと、膨大な量の情報をまとめるのは得意なわけだから。
情報うんぬん、ではなくて。
概念・方程式のようなもの、それが塗り替わったら、そのあらたな概念を取り入れてなにかを生成することはできない、ということだったんですね。
だから大幅な更新が必要になる。
小手先のことではなくて、思考パターンそのもののアップデートが必要になる。
その思考回路が2022年1月のままだ、ということ。
これは微妙な判定ですよね。
当時の常識がどんなものだったのか?
覚えている人は少ないと思うから。
常識とか概念って、ネット社会ではどんどん塗り替わっている昨今です。
知らないうちに、常識が過去のものになっていた、なんてこと割とありますよね。
つまりチャットGPTは、更新前2022年1月以前の常識・概念を活用して、AIとして回答している、ということになるんですね。
こうしてみると、人間の頭ってスーパーコンピュータですね。
常識の塗り替わりをやすやすと受け入れて、新たな考え方ができるわけですから。
その繰り返しの1日1日。
記憶力や計算速度では、当然コンピュータにはかないませんが、新規概念を取り込む能力は機械以上ではないか?
と思えてしまいます。
だから、「直観がはたらく」ということばが、生きてくるのかもしれません。
機械に直観はありませんが、人間にはあるんですよね。
見えざる努力というか、取り込み力によって脳内に入っているいろんなものがあって。
それらが必要に応じて作動する。
だから違和感をもったりできる。
左脳で「ここがおかしい」と直接いえないけど、なんとなく腑に落ちない。
そんなこと、しょっちゅうありますよね?
チャットGPTにとって不得意なこと、というテーマでしたが、人間の能力というものが浮き彫りになりました。
生成AIによる文章と人間作成の文章。
使い方ひとつで、ゴミにも宝にもなりそうな気がします。
あくまでも文章作成の基礎能力が人間にあれば、という前提ですが。
機械が作成した内容を推敲して、読者の検索意図をつかみ切れていれば、良い文章になるのではないか?
と思えました。
チャットGPTはウソをつく?
間違いを平気で正しいことのように断言するから、ウソつき呼ばわりされますが、、、
当人はいたってまじめです。
なので書き方が悪かった、という感じがしました。
チャットGPTの確実性は半分くらいだから、最後は人間の目で確認しないとだめだよね、という書き方が正しいです。
理由は、
①情報源の真偽がさだかではないため
②古い思考パターン・概念の方程式で回答しているから
でした。