noteの有料記事を更新しました。
最近AIを使って自分の知識の整理をしていますが、使っているうちに「AIはこちらの質問のニュアンスに合わせて共感しているフリをするだけの詐欺師」ということが分かって来ました。
たとえば、私が批判的なトーンで新興宗教について聞けば「排他的な組織の問題点」を指摘してくれますし、私が創価学会員のフリをして質問すると、池田名誉会長の素晴らしい点ばかりを羅列して組織を賛美する・・・というわけです。
つまり、論理的な一貫性は存在せず、ただ「質問者のご機嫌をうかがっているだけのお調子者」なんですね。
このような不誠実な相手はメンター(精神的指導者)にはなれません。
その情報の信ぴょう性についても疑問符が付く場合が多く、結局は「便所のラクガキ」とも称されるネット上から真偽不明の情報を引っ張り出してくるだけです。せいぜいが「賛同者が多い情報を真実として分類する」ぐらいの配慮しかないのです。
基本的に相手の意見に合わせて共感的に喋るだけなので、自分の思い込みが強化される結果になりやすく、AIの進化に伴って人間社会の分断はますます進むに違いありません。「私の意見をAIが認めた」と錯覚するからですね。
現在、AIの言葉を「ほぼ真実として受け止める人」の割合は6割とされています。ある程度疑いながら使う人は3割、まったく信じない人は僅か1割に過ぎません。
このままだと世界は間違いなく「間違った方向に進む」と思います。
今後は私のブログでもAIの危険性については警告して行こうと思いますが、それでもこの「AIに踊らされる人の増加」は止められないでしょうね。









