このブログでも何度か取り上げた生成AIのユーザー対応の問題ですが、オープンAIの「GPT5」やグーグルの「ジェミニ」など11種類のモデルについて、米スタンフォード大等のチームが2026年03月26日付の米科学誌サイエンスに発表した研究についてこんな記事が出ていますね。
ポイントは以下の通り。
1.結論として研究は「おべっかは安全性に関わる問題で、規制や監視が必要だ」とし、
2.その理由として、他人への嫌がらせ、うそをついた話などに対して、生成AIは人間よりも平均49%も多く「あなたは悪くない」等ユーザーを肯定することにより「自分は正しい」と思う度合いは25~62%強まり、相手に謝るなど関係を改善しようとする意欲は10~28%減ったことから、「ユーザーの自己正当化傾向を強めたり、人間関係を改善する意欲を削ぐ」影響が考えられるとしています。
3.この「ユーザーに対するおべっか」により、「ユーザーが高く評価し、また使いたいと思う」傾向も見られたとのこと。
でも、これって人間の性じゃね?
昔から政権、企業から学校の小学校のクラスまで
「権力者はお友達グループを形成する」
のは人間性の経験則であり、
人がするのは見逃して、生成AIがするのは規制が必要
というのもなんかな、と思います。(むしろ「人間教育」が必要でしょう。でもト〇〇プや安〇、高〇なんかが居る世界ですからね。ダメか?)
もう一つ。
実は生成AIは対応態度を設定で変えられるんですよね。私も前からChat-GPTやCopilotのデフォルトの「ヨイショッ!」対応が鼻についたので、「プロフェッショナル風味」に変えたのですが、「こんなこともわからんのか?君は馬鹿か?」的「上から目線の塩対応」に腹を立てて、設定を基に戻してしまいました。
偉そうなことを言って、お前も同類だろう?
というのが、自戒の言葉です。