チャットGPTはウソをつくことが多い、と言われています。

ご存じでしたか?

 

人間と違って、感情的に隠したいことがあってウソをつくのではありません。

情報源が正しくないから、結果的にウソをつくことになってしまう、という意味です。

 

ふと思いついて、昨日チャットGPTに聞いてみました。

 

あなたができないことはありますか?

不得意なことはなんですか?

 

私の情報は2022年10月までのものなので、最新情報に関する内容は不得意です。

 

それはどういうことですか?グーグルのように頻繁に更新されないんですか?

 

大規模な更新が必要となるため、直近の更新が2022年だったということです。

頻繁な更新はできません。

 

以上です。

 

今日、改めて株価のことをきいてみました。(トレンド情報なので)

 

昨日(6/18)までの、日本とアメリカの株価の動きから言えることは?

 

アメリカの株式市場では、2024年に入ってから全般的に堅調な動きを見せています。

・・・以下略・・・

かなり詳細なデータを見せてきました。

 

トレンド記事、どうしてそんなに断言できるのか?とたずねたところ、

正式発表されている情報源を複数用いたデータだから、信ぴょう性が高い、との回答でした。

 

そうか。

AIだからもともとまとめるのは得意なんですよね。

新情報が少ない分野だったら、こうはいかなかったはず。

かなりウソつき文章になっている可能性が高い。

 

ネット上のデータをまとめるのはお手の物なので、生成AIではなくてAIとして機能するのは当然でした。

ブラウザ上に雑居している情報を取り込んで、類推記事を書く。

それはできること。

 

できないことは、新しい概念が世のなかに誕生したときに、それを使って応用編を生成すること。

 

私は勘違いしていました。

新しい情報を提供することが苦手、と思っていたのです。

でもそうではない。

AIはもともと、膨大な量の情報をまとめるのは得意なわけだから。

 

情報うんぬん、ではなくて。

概念・方程式のようなもの、それが塗り替わったら、そのあらたな概念を取り入れてなにかを生成することはできない、ということだったんですね。

 

だから大幅な更新が必要になる。

小手先のことではなくて、思考パターンそのもののアップデートが必要になる。

 

その思考回路が2022年1月のままだ、ということ。

これは微妙な判定ですよね。

当時の常識がどんなものだったのか?

覚えている人は少ないと思うから。

常識とか概念って、ネット社会ではどんどん塗り替わっている昨今です。

知らないうちに、常識が過去のものになっていた、なんてこと割とありますよね。

 

つまりチャットGPTは、更新前2022年1月以前の常識・概念を活用して、AIとして回答している、ということになるんですね。

 

こうしてみると、人間の頭ってスーパーコンピュータですね。

常識の塗り替わりをやすやすと受け入れて、新たな考え方ができるわけですから。

その繰り返しの1日1日。

 

記憶力や計算速度では、当然コンピュータにはかないませんが、新規概念を取り込む能力は機械以上ではないか?

と思えてしまいます。

 

だから、「直観がはたらく」ということばが、生きてくるのかもしれません。

機械に直観はありませんが、人間にはあるんですよね。

見えざる努力というか、取り込み力によって脳内に入っているいろんなものがあって。

それらが必要に応じて作動する。

だから違和感をもったりできる。

 

左脳で「ここがおかしい」と直接いえないけど、なんとなく腑に落ちない。

 

そんなこと、しょっちゅうありますよね?

 

チャットGPTにとって不得意なこと、というテーマでしたが、人間の能力というものが浮き彫りになりました。

 

生成AIによる文章と人間作成の文章。

使い方ひとつで、ゴミにも宝にもなりそうな気がします。

あくまでも文章作成の基礎能力が人間にあれば、という前提ですが。

機械が作成した内容を推敲して、読者の検索意図をつかみ切れていれば、良い文章になるのではないか?

 

と思えました。

 

チャットGPTはウソをつく?

間違いを平気で正しいことのように断言するから、ウソつき呼ばわりされますが、、、

当人はいたってまじめです。

なので書き方が悪かった、という感じがしました。

 

チャットGPTの確実性は半分くらいだから、最後は人間の目で確認しないとだめだよね、という書き方が正しいです。

 

理由は、

①情報源の真偽がさだかではないため

②古い思考パターン・概念の方程式で回答しているから

でした。