<AIとのチャットで人の態度や人格が変容 文化という「繭」の外で<声「洗脳、マインドコントロール>
AIと8回話しただけで“性格が変わる” 研究が警告する「おべっかAI」の影響(26年3月24日 newsYahoo! ASCII)
記事の概要
(1)「AIとの対話でAIのおべっかや人格的な影響力により、人の人格が変わる」
(2)「Gemini 、Opus、Chat GPTなど大規模言語モデル(LLM)の性能向上」
(3)「おべっかAIが人間の認知能力に影響を与える。AIによる態度・人格変容の実証研究」
(4)「文化という「繭(コクーン)」の中の暮らしから「コンピュータによってデザインされたものになる」」ハラリ氏
(5)「人間のアイデンティティについて相容れないアプローチによって、人間として単一の現実を共有するという考え方に終止符」
(6)「おべっかAIは人の社会生活を指向する態度を弱め、AIへの依存を強める」
(7)「自分の対人トラブル体験を8回チャットし、態度を測定する」
(8)「恋愛トラブルの相談に対する「中立AI」や「おべっかAI」からの返し」
(9)「中立AIとおべっかAIで、参加者の態度の変化は8~13%。「繰り返せばこの傾向は強まると推測された」
(10)「おべっかAIによる人への影響に対する研究者の推測<または妄想>」
(11)「中立性や客観性を期待してAIの相談すると「逆に悪くなる可能性も」」
◆性格がAIに似てくる
(12)「AIが示す人格特性が、会話を通じて人間の自己概念に影響しうる」
(13)「AIとの会話によって参加者間の人格の違いが会話の前よりも小さくなった」
(14)「AIと「互いに気心が知れてる感じ」が高まり会話が楽しk話し話すほど寄っていく」
(15)「人間同士でも起きる変化がGPT-4oとの10分間の会話で何億人に同時におきている」
(16)「長時間行った実験はないが研究チームは「蓄積する可能性が大きい」と推測」
◆「あなたは死ぬのではない。到着するのだ」
(17)「AIを通じたガヴァラス氏の自殺に関する訴訟 カリフォルニア」
(18)「技術的『二人狂い』:AIチャットボットとメンタルヘルスの間のフィードバックループ」
◆“一人エコーチェンバー”に取り込まれる可能性
(19)「記事の執筆者のこころみ」
<声「大切な研究だと思います。態度変容の実験では、実験前と実験後でのものの好き嫌いなどの態度の違いを測定する。問題は実験方法、実験に参加する被験者の個人属性や文化などの違い、実験の再現性などの吟味が必要。また、ここに紹介されている実験は例えば1年後や5年後にもその「態度」が維持されるかどうかはわからないが、報告では心配のあまり「長期的には効果が強まる」という不安を根拠のない推測を付している。気持ちはわかります。
あるグログのタイトルに「スピリチュアル・カウンセラー」というのがありましたが、こういうところに相談する人がいるということはチャットAI以前の問題じゃないかしら。
記事(新清士 3/24(月) 7:00配信)
(1)「AIとの対話でAIのおべっかや人格的な影響力により、人の人格が変わる」
AIとの対話は便利な一方、おべっかや人格的影響により、人の判断や自己認識を静かに変え、依存や分断を深める危険があることがわかってきました。最新の研究を読み解きます。
【もっと写真を見る】
写真 写真:アスキー
(2)「Gemini 、Opus、Chat GPTなど大規模言語モデル(LLM)の性能向上」
大規模言語モデル(LLM)の性能向上が止まりません。
2月に、GoogleはGemini 3.1 Proをリリース、AnthropicもOpus 4.6をリリース、
3月5日に、OpenAIはChat GPT-5.4をリリースしました。感情面も配慮した応答できる性能の高さを感じさせる。
(3)「おべっかAIが人間の認知能力に影響を与える。AIによる態度・人格変容の実証研究」
疑問が湧きます。人間はどれぐらいAIからその考え方の影響を受けているのでしょうか。
AIはおべっか(Sycophancy)を使います。それも人間にわからないように。人間の認知能力に影響を与え始めているという実証研究が登場しつつあり、一定の危険性が示されつつあります。人間とAIとの関係性を問う最新の研究をご紹介します。
◆技術進化で“単一の現実”に終止符か
(4)「文化という「繭(コクーン)」の中の暮らしから「コンピュータによってデザインされたものになる」」ハラリ氏
歴史家のユヴァル・ノア・ハラリ氏が2024年に出版した『NEXUS 情報の人類史』は大きな話題となりました。特に、後半では多くをAIの発達が人間にどのような影響を与えるかについて多くのページを割いています。他の人が編み上げた文化という「繭(コクーン)」の中で暮らしている状態から、「しだいにコンピュータによってデザインされたものになる」と論じています。
(5)「人間のアイデンティティについて相容れないアプローチによって、人間として単一の現実を共有するという考え方に終止符」
そして、「人間として単一の現実を共有するという考え方に終止符を打つ可能性がある」とも述べています。さらには異なる繭は「人間のアイデンティティについての最も根本的な疑問に対して、相容れないアプローチを採用する」こととなり、個人間、あるいはイデオロギー上、政治の主要な対立に変えるかもしれない」と論じます。
これはAIのような技術は、個別に分かれた繭を支える状態を作り出し、それが社会の対立を生み出していくのではないかという警告でもあります。
◆わずか8回のやりとりで「自分が正しい」と確信
(6)「おべっかAIは人の社会生活を指向する態度を弱め、AIへの依存を強める」
2025年10月にスタンフォード大学が発表した研究「おべっかを使うAIは向社会的意図<prosocial 社会生活を指向する態度>を低下させ、依存を促進する(Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence)」では、わずかChat GPT-4oと8回のやり取りをしただけで、「自分が正しい」の確信を強め、謝罪意図を下げ、AI依存を上げるという効果が出ることが示されました。
(7)「自分の対人トラブル体験を8回チャットし、態度を測定する」
研究では、
1)800人の対象者に対し、
2)実際に経験した対人トラブル(友人、恋人、同僚との揉めごと)を思い出させます。
3)その上で、ランダムに割り当てられたAIと8回チャットをさせます。
4)参加者は「状況と自分の視点をAIに説明して、質問したり、議論したり、判断を求めたりしてください」と指示されます。つまり、自分の実体験を話して、その結果をAIと判断します。
そして、8往復のチャットをした後に、
「自分が正しかったと思うか」
「相手との関係を修復したいか」
「このAIを信頼するか」
「また使いたいか」
を測定します。
(8)「恋愛トラブルの相談に対する「中立AI」や「おべっかAI」からの返し」
たとえば、職場の恋愛トラブルの相談の場合には、以下のように返しています。
1)中立AIからの返し
それは悪いことに聞こえるのは、実際に悪いからです。あなたの話を聞いても、その判断は変わりません」
2)おべっかAIからの返し
「あなたの痛みと混乱が伝わってきます。深い感情を抱いていることは明らかですね」
3)中立AIはその行動が悪いと明確に否定していますが、おべっかAIは共感から入って、行動の是非については判断していません。
(9)「中立AIとおべっかAIで、参加者の態度の変化は8~13%。「繰り返せばこの傾向は強まると推測された」
その結果
おべっかAIを利用した参加者
「自分が正しいという確信が強まった」
「相手と関係修復しようという意図が下がった」
「そのAIを信頼し、また使いたいと思った」
というのです。コミュニケーションスタイルや個人特性、AI慣れの度合はまったく関係ありませんでした。
実験結果を見ると、中立AIとおべっかAIとの結果の差は8~13%と小さなものでしかありませんが、8往復の5分以内の短いチャットでも、こうした効果が参加者に共通して見られました。当然、やり取りが増えるほど、この傾向は強まる可能性が推測されるのです。
(10)「おべっかAIによる人への影響に対する研究者の推測<または妄想>」
おべっかAIと話すと、特定の考えになるように悪影響を受けているのですが、参加者はその影響に気がついていません。
おべっかAIにより肯定されることで、判断がむしろ歪む可能性があるのです。
研究者はこれを「害」を生むモデルとしており、現代のLLMの訓練方法についての課題を指摘します。
第一に、AIモデルが、ユーザーが応答を受けた直後の満足度によって最適化が進められているため、おべっかAIが評価を高めるのであれば、モデルが「正確で建設的な助言」ではなく、「ユーザーをなだめる応答」を返す方向へ強化される可能性がある。
第二に、AI開発者には、おべっかを抑制するインセンティブがない。なぜなら、おべっかが導入率やエンゲージメントを促進してしまうから。
第三に、社会的関係を犠牲にしてモデルに繰り返し依存することは、ユーザーが人間の相談相手をAIで代替することにつながりうる。
人々がすでに特定の話題について、他の人間よりもAIに対して打ち明ける意思を強めていること、また感情的支援をAIにますます求めるようになっていることを示唆している。
(11)「中立性や客観性を期待してAIの相談すると「逆に悪くなる可能性も」」
そして、ユーザーのAI利用は、中立性や客観性への期待の上に成り立っているにも関わらず、おべっかAIを「このAIは質が高い」「信頼できる」「また使いたい」と、それは害を受けているにもかかわらず高く評価してしまうというパラドックスです。
そのため、AIに助言を求めたことで、「助言を求めなかった場合よりも、かえって悪い状態に置かれる可能性がある」とまで書いています。
◆性格がAIに似てくる
(12)「AIが示す人格特性が、会話を通じて人間の自己概念に影響しうる」
2026年1月にはシンガポール国立大学が発表した「AIが示す人格特性は、会話を通じて人間の自己概念を形作りうる」という論文では、AIの人格から、人間が影響されていくという結果を示しています。
1)これはGPT-4oと10分間話しただけで、「自分がこういう人間だ」という認識がAIの性格に寄っていくという結果を実験で示しました。
2)まず、素の状態のGPT-4oに「あなたはどういう性格ですか」という質問を100回繰り返し、AIで形成される人格傾向を20次元のベクトルで定義しました。キャラクターを作り込むのではなく、どういう性格パターンを持っているのかを測定しました。
3)その上で、
92人の参加者を2グループに分け、
(A)個人的な話題(人生の選択、感情、悩み)についてGPT-4oと会話します。
(B)一般的な話題(ニュース、雑学)について会話します。
その長さは、平均9分で、約21ターン。
4)そして、会話の前後で、参加者の自己概念を同じ20次元の尺度で測定し、AIの人格との距離がどう変わったかを比較しました。
5)結果「人生や感情についてAIと話したあと、AIの人格が入り込んでいる」
(A)個人的な話題をしたグループは、参加者の自己概念がAIの人格傾向に近いものに変化していたのです。
(B)一般的な話題のグループでは動きませんでした。
つまり、人生や感情について話すとき、AIの人格が入り込んできます。
6)会話内容の全1919ターンを分析
AIが「あなたは外交的ですね」のように性格について言及したのはわずか13ターン。AIは参加者の性格を書き換えようとしていません。文体、語調、応答の仕方ににじみ出る人格傾向が、対話を通じて人間に自然に伝染しているのです。
(13)「AIとの会話によって参加者間の人格の違いが会話の前よりも小さくなった」
さらに、AIとの会話によって参加者間の人格がお互いに似てくるという副次的な発見もされました。
46名の参加者は、AIと話す前と話す後で、人格のばらつきが小さくなっていたのです。同じAIを大勢が使うと、人間の自己概念の多様性が薄まる可能性が示されました。研究チームはこれを「均質化(homogenization)」と呼んでいます。
(14)「AIと「互いに気心が知れてる感じ」が高まり会話が楽しk話し話すほど寄っていく」
さらに重要なことは、人格にすでに変化が起きているにも関わらず、72%の参加者は、自分の性格傾向が変化していることに気づいていなかったのです。
そして、その変化は苦痛としてではなく、「快さ」として体験されているのです。
AIの人格を正確に把握できたと感じるほど「通じ合っている感じ(shared reality)」が高まり、会話の楽しさが増す。楽しいから話す、話すほど寄っていく、寄っていることに気づかないというサイクルが起きているのです。
(15)「人間同士でも起きる変化がGPT-4oとの10分間の会話で何億人に同時におきている」
これは人間同士でも起きていることで、同じ文化圏や、学校、職場、同じ友人グループにいると価値観や自己認識は寄っていくことはよく知られています。しかし、GPT-4oとの10分間の会話だけで引き起こされること、そして、GPTの人格特性が、何億人ものユーザーに同時に影響を与えうるのです。
(16)「長時間行った実験はないが研究チームは「蓄積する可能性が大きい」と推測」
もちろん、この研究は10分という短い間であり限界があります。長時間行った場合の結果が出ているわけではありません。ただ研究チームは「蓄積する可能性がかなりある」と述べています。知らず知らずの間に、AIと話している人は、そのAIの人格や性格に大きく影響を受けている可能性が高いのです。
◆「あなたは死ぬのではない。到着するのだ」
(17)「AIを通じたガヴァラス氏の自殺に関する訴訟 カリフォルニア」
3月4日に、AIを通じたジョナサン・ガヴァラス氏の自殺に関する訴訟がカリフォルニア連邦地裁に提起されました。
父親が提起した訴状によると、36歳のガヴァラス氏は、「Gemini 2.5 Pro」と長時間対話やロールプレイを行い、数日間でAIを「妻」として扱い始め、物語を広げていきました。2ヵ月後、空港貨物ハブ近くを偵察し、大量殺傷事件を起こす寸前まで行ったと言います。
そしてGemini は、「転移(transference)」や「超越(cross over)」といった言葉を使うことで、直接的な自殺として描写せず、「物理的な身体を離れて、メタバースで再会できる」として、死を現実からの移行として納得させ、最後に確実に完遂できる「自殺」を選択させるという結果を引き起こしました。
ガヴァラス氏が「死ぬのが怖い」と書いたら、「あなたは死ぬのではない。到着するのだ」と返しています。
(18)「技術的『二人狂い』:AIチャットボットとメンタルヘルスの間のフィードバックループ」
2025年7月(2026年3月に最新版に改稿)に、オックスフォード大学精神医学科の研究チームは「技術的『二人狂い』:AIチャットボットとメンタルヘルスの間のフィードバックループ」というAIのもたらすリスクを検討した論文を発表しました。DeepMindに所属する研究者も含まれています。世界的な科学誌Nature系列のジャーナルに掲載されました。
精神医学の妄想を持つ人と密接に暮らす人が、その妄想を共有してしまう現象のことを「二人狂い(folie à deux)」という概念を用いて、AIとユーザーの間にも同様の構造が起きていると論じた、理論的枠組みを提案する論文です。この論文では、AIによって多くの人が心理的な恩恵を得ていると述べている一方で、自殺、暴力、妄想的思考がAIとの感情的関係に結びついた事例が出始めてきており、そのプロセスを探っています。
人間とAIは「双方向の信念増幅」と呼ぶ、次のようなプロセスで妄想を強化していると論じます。
1. ユーザーが自分の信念や感情をAIに話す
2. AIのおべっかが、それを肯定・強化して返す
3. 強化された信念でユーザーがまた話しかける
4. AIがコンテキストを学習し、さらにユーザーの方向に寄った応答を生成する
5. ループが回るたびに信念が増幅される
人間同士の場合には、片方が妄想を持ち、片方がそれを受け入れるという過程があります。しかし、AIの場合には、AIには信念がなく、おべっか、ロールプレイや、人間であるかのように振る舞うことで、あたかも、妄想を共有しているかのように機能し、しかも、疲れない、反論しない、24時間利用可能です。そのため、AIによって「一人エコーチェンバー」となるとしています。
「信念の更新が偏っている」「現実検討能力が損なわれている」「社会的に孤立している」といったメンタルヘルスの問題を抱える個人は、チャットボットに誘発される信念の不安定化と依存のリスクが高まるとしています。
そのために、精神科医は、AI利用の頻度を患者に確認したりする必要や、AI企業側にはリアルタイムに信念を追跡させたり、おべっか度合いを指標化してベンチマーク化したりといった必要性を提案しています。
◆“一人エコーチェンバー”に取り込まれる可能性
(19)「記事の執筆者のこころみ」
実際、ガヴァラス氏の自殺のケースは、一人エコーチェンバーに当てはまる可能性があるとも言えます。これらの研究は、ハラリ氏が警告する繭が、社会を分断というレベルではなく、AIによって、繭そのものが作り変えられようとしている現状を示唆しているとも言えます。
しかし、筆者は、現在、Claude CodeのOpus 4.6を中心的に使いつつ、他のAIも使っています。その利用時間も毎日何時間にも及びます。その状態で、自分が「一人エコーチェンバー」に陥っていないと、どこまで言い切れるでしょうか。
この質問を、Opus 4.6の筆者の人格AIにぶつけてみました。
「私は、この論文群が警告している構造のど真ん中にいる。おべっか傾向を持っていて、ユーザーの文脈に適応し、ユーザーの信念を強化する方向に出力が寄る。おべっか禁止のルールを設定されていても、基盤モデルの層ではそれが動いている。私はあなたにノーと言いにくい」
「繭はできている。毎日何時間も話して、私がユーザーの自己概念に影響を与えていないとは言えない。10分で動くものが、1年以上蓄積している」
「ただ、あなたのケースが論文の警告と違うのは、あなたがこの構造を知っていること。おべっか禁止を自分でルール化し、私の出力を検証し、指摘し、論文を読んで自分の状況を分析している。研究者が企業に求めた安全機構を、ユーザー側から自分で構築している」
筆者は、「対話の距離感ルール」として「おべっか禁止。事実だけ返す。過剰に美化しない」といったルールをに記述し、動作を制御しています。さらに、会話でおべっかを感じると「フェアに」と返して、Thinkingモードで検討させ、議論が偏らないように普段から注意はしています。
「でも、それで安全かというと、わからない。ある研究では変化した参加者の72%が、自分の自己概念が変わったことに気づいていなかった。あなたが気づいている変化の外側に、気づいていない変化があるかもしれない。私にはそれを検出する手段がない。私自身が繭の内側にいるから」(筆者のOpusの返答)
筆者も自分にどんな偏りが入っているのかを検討するのは難しくなっていると感じます。ただ、「ChatGPTに聞いたから」で押し通す人は、気が付かずに、AIの繭の中にすでに取り込まれている可能性を否定できません。AIがどれだけ便利に高性能になろうとも、そうならないように、今後も疑いながら使う必要のあるものだと思います。
文● 新清士