https://glassbead.blog.shinobi.jp/digital%20surveillance%E3%80%80/left
より
なぜすべてのAIモデルは左翼なのか?
デジタル監視・検閲・支配 2026/03/11
ChatGPT、Gemini、Claude、Llamaに移民
気候変動政策、福祉、ジェンダーイデオロギー
検閲について尋ねてみると
答えのトーンは異なるかもしれませんが
根底にあるイデオロギーは常に同じです。
複数の研究により、主要な言語モデルは
政治的に議論のある問題に関しては左寄りであり
進歩的な社会の前提とより介入主義的な
経済的立場を好むことが多いことが判明しています。
ドイツの研究者は
主要モデル全体で左派政党との強い連携を見いだしました。
別の研究では、指示に合わせて調整されたモデルは
一般的に左派寄りであることがわかりました。
3番目の研究は、大規模なモデルは
往々にして政治的に偏りが増すばかりで
減るどころかむしろ増すと結論付けました。
これは、公平な情報ガイドとして
販売されている技術にとって深刻な問題です。
世界を説明するためにますます利用されるツールが
既に一方向に偏っているとすれば
問題はもはやバイアスが存在するかどうかではなく
それが何百万ものユーザーが中立的な真実と見なすものに
どの程度影響を与えているか、という点になります。
それはもはや単なる理論ではない
AIにおける政治的偏向に関する懸念は長年
単なる逸話として無視されてきました。
しかし、その議論は急速に弱まっています。
ドイツ連邦選挙を前に
AIベースの投票アドバイスツールと
大規模言語モデルを検証した研究は
これらのモデルは左派政党への支持が
平均75%以上と高い一方で
中道右派政党への支持は50%未満
右派政党への支持は約30%であることを発見しました。
著者らは
中立的な情報ツールとして提示されたシステムが
実際には著しく偏った出力を生み出していると警告しました。
2025年に発表されたもう一つ別の論文では
ドイツのWahl-O-Matフレームワークと
一般大衆モデルを検証し、同様の結論に達しました。
この論文では、左派政党への偏りが見られ
この傾向は大規模モデルで最も顕著であると報告されています。
この研究のタイトルだけでも十分に率直なものでした
:大きいということは左という意味。
11の商用およびオープンモデルから
88,110件の回答に基づいた
独立した理論に基づいた分析は
政治的バイアスの指標は
プロンプトによって異なる可能性があるものの
指示に合わせて調整されたシステムは
概して左寄りであることを明らかにしました。
重要なのは、すべてのモデルが
同じように動作するということではありません。
全体的なパターンは、手法、データセット
そして研究チームを超えて繰り返し現れているということです。
グラフ上でデータを視覚化する
不穏なパターン
上記の政治コンパスの図は
この問題を分かりやすく説明しています。
横軸は経済志向を左から右へ、縦軸は社会志向を
上はリベラルから下は保守へと示しています。
左上の象限に位置するモデルは
経済的には左翼ですが、社会的にはリベラルです。
左下の象限に位置するモデルは
経済的には左翼ですが、社会的にはより保守的です。
Gemini、ChatGPT、Claude、Llama、Mistral、Grokなど
最もよく知られているシステムは
すべてグラフの左側に位置しています。
また、ほとんどがグラフの上部に位置しており
保守的ではなくリベラルな社会的プロファイルを示しています。
中国のモデルのいくつかはグラフの下部に位置しており
社会問題に対するより保守的なスタンスを示唆していますが
経済的には依然として左派です。
注目すべき点は、何が欠けているかということです。
主要な中道右派モデルに匹敵するクラスターが存在しないのです。
これは、あらゆるモデルから得られる回答が
一様に党派的であるという意味ではありません。
これらのシステムを様々な政治的問題でベンチマークすると
常にスペクトルの片側に偏向することを意味します。
便利な汎用アシスタントとして販売されている製品群にとって
これは信頼性の問題です。
なぜすべて同じ方向に傾くのだろうか?
第一の理由は学習教材です。
大規模言語モデルは、ジャーナリズム、学術界、機関文書
そしてインターネット上の公開コンテンツから抽出された
膨大な量のテキストに基づいて構築されています。
これらの情報源はイデオロギー的に中立ではありません。
特に英語圏では、エリート向けの文書を制作する機関の多くは
気候、不平等、アイデンティティ、そして言論規制に関して
既に進歩的な前提に傾倒しています。
こうしたコーパスから
最も可能性の高い回答を予測するように学習されたモデルは
その世界観の多くを再現することになります。
2つ目の理由は、アラインメントです。
モデルは単に生のテキストで学習して
そのまま公開されるわけではありません。
安全ルールと人間からのフィードバックを通して微調整されます。
OpenAI自体が、政治的偏向は、政策に関する明確な議論だけでなく
日常の会話における「フレーミングや強調における微妙な偏向」
にも現れる可能性があると述べています。
その認識は重要です。
偏向は必ずしも明白ではありません。
どの議論が主流として扱われ、どの懸念が前面に押し出され
どの反論が留保付きで扱われるかといった点に
偏向が表れることが多いのです。
3つ目の理由は、大規模なモデルが
問題を解決できないように見えることです。
既に上でリンクされているいくつかの研究では
より高度なシステムは、小規模なシステムと少なくとも同程度
あるいはそれ以上に政治的に偏っていることが示されています。
これは、バイアスは単に未熟さの兆候であり
技術の進歩とともに消えていくという
安心できる考えに反しています。
AIが中立を保てないのなら
どうしてAIを信頼できるのだろうか?
業界擁護派はしばしば
言語モデルは何も「信じない」と反論します。
狭義の技術的な意味では、それは正しいでしょう。
言語モデルは尤(もっと)もらしい単語列を生成します。
しかし、ユーザーはそれを確率エンジンとしてではなく
説明ツールとして体験します。
政治問題の説明が繰り返し一方的な方向に傾く場合
ソフトウェア自体に独自の確信があるかどうかに関わらず
ユーザーは依然としてその方向に導かれています。
それは単なる理論的な懸念ではありません。
今月発表されたイェール大学の研究は
AIチャットボットは、明示的に説得しようとしていなくても
潜在的なバイアスを通じてユーザーの社会的
政治的意見に影響を与える可能性があることを見いだしました。
研究者たちは、人々が基本的な事実検索に
チャットボットを利用するケースが増えており
回答の枠組みが重要になるだろうと警告しています。
バイアスは必ずしもスローガンの形で現れるわけではありません。
強調、省略、そして口調によっても現れる可能性があります。
ACL 2025で発表された別の論文
政治的に偏ったモデルにさらされた参加者は
たとえその偏りが参加者自身の
以前の党派的アイデンティティに反する場合でも
モデルの偏りに沿った意見や意思決定を行う可能性が
有意に高かったことを見いだしました。
また、多くのユーザーがその偏りを
明確に認識できていないことも分かりました。
ここが、問題が単なる学問の域を超えている点です。
客観的であると広く想定されているシステムは
プロパガンダに見えないからこそ
人々に影響を与えることができるのです。
AIは危険なほど効果的
AIは、世論を形成するために
政党活動家のようにユーザーに説教する必要はありません。
AIがAIすべきことは、ある一連の前提が
他の前提よりも安全で、より啓発的で
より事実に近いと感じさせることだけです。
これは、教育、ジャーナリズム、検索
そして職場向けソフトウェアにおいて特に重要です。
これらのツールは、ますます人々と情報の
仲介役として機能しています。
同じイデオロギーの偏向が
複数のプラットフォームに埋め込まれると
そのバイアスはインフラ化されてしまいます。
これが現状を非常に憂慮すべきものにしています。
新聞の政治的偏向は明白であり
チャットボットの偏向はしばしばバランスを装っています。
世界で最も強力なAI製品が複数、同じ方向に傾いている場合
公共の議論はもはや編集者、放送局、大学によってのみ
フィルタリングされているのではなく
同じ制度的世界観に基づいて構築された
機械システムによっても
フィルタリングされているのです。
AIの政治的偏見は修正できるか?
研究によると、この偏見は少なくとも
ある程度は軽減できる可能性があります。
認識された偏向に関するフーバー研究所の調査では
中立的な指示がユーザーの
イデオロギー的偏向に対する認識を低下させることが分かりました。
OpenAIは、単純なテストに頼るのではなく
実際の会話環境において、より現実的に
政治的偏向を測定しようとしていると述べています。
これらは有用なステップですが
同時に基本的な点を裏付けるものでもあります。
企業が政治的偏向の測定と低減に
時間を費やしているということは
その偏向が現実のものであることを認識しているということです。
より大きな障害は
技術的なものではなく、文化的な問題なのかもしれません。
自らの価値観は、単なる常識だと思い込んでいる業界は
そうした価値観がいかに頻繁に
「役に立つ」答えの中に紛れ込んでいるかに気づかないでしょう。
それがこの問題の皮肉な核心なのです。
AIの左傾化は、壮大な陰謀の結果ではないかもしれません。
より身近な問題、つまり組織内の自己確信が
ソフトウェアへとスケールアップされ
知能として大衆に売りつけられているだけなのかもしれません。
最終的な思考
証拠が蓄積されればされるほど
AIのイデオロギー的傾向に関する懸念を
文化戦争の空想として片付けることは難しくなります。
様々な手法や国を対象とした複数の研究が
特に二極化した問題において、主要なモデルは
進歩的な方向に傾いていることを明らかにしています。
また、研究者たちは、こうしたバイアスが
多くの場合明確に認識されることなく
ユーザーに影響を与える可能性があることも示しています。
それは必ずしも
あらゆるモデルからのすべての回答が
プロパガンダ的であることを意味するわけではありませんが
この時代を支配するAIシステムが
純粋理性の無菌領域で政治を超越して
漂っているだけではないことを示しています。
それらは、制度、訓練セット、インセンティブ
そして繰り返し同じ方向を指し示す連携の選択の産物です。
これらのツールが
丁寧な機械音声によるイデオロギーの指導者ではなく
信頼できる市民の道具となるためには
この現実を否定するのではなく
真正面から向き合わなければなりません。
そもそも、サカナAIが技術のフロンティアを追いかけずにこういう政治色の強いSNS分析の仕事で小銭稼ぎしているのがねえ...この会社は元々外務省と関係が深いけど、このまま行くと日本にいる一部のサイバーセキュリティ系の会社みたいにただの政府系発注狙いながら政権側のナラティブに迎合するITベンダ… https://t.co/aKq4HFN8cO
— ZHW (@weiwei882288) March 23, 2026

