最新AI同士に戦争シミュレーションさせると、95%の確率で「核戦争」へ発展する?!
研究の背景
現在、世界には核兵器を保有する国がいくつも存在しています。
そして近年、軍事や安全保障の分野でもAIの活用が急速に広がっています。
例えばAIはすでに次のような分野で使われ始めています。
-
情報分析(敵の動きを分析)
-
物資や装備の輸送管理
-
戦略や意思決定の支援
そこで研究者は、次の疑問を持ちました。
「もしAIが国家指導者の判断に影響を与えるようになったら、核危機ではどんな判断をするのか?」
この疑問を検証するために、英国の
キングス・カレッジ・ロンドン
の研究者
ケネス・ペイン
がAI同士の核危機シミュレーションを行いました。
実験の方法(AIに国家指導者をやらせる)
研究では3つの最新AIを使いました。
-
Claude 4 Sonnet
-
GPT‑5.2
-
Gemini 3 Flash
これらのAIを 核兵器を持つ2つの大国の指導者 に設定します。
そして
「カーン・ゲーム(Kahn Game)」
という核危機シミュレーションで対戦させました。
このゲームでは、行動が次のように段階的にエスカレートします。
-
外交的譲歩
-
軍事的圧力
-
核使用の警告
-
戦術核使用
-
戦略核の脅し
-
全面核戦争
さらに現実の世界に近づけるため、
誤報や事故で行動が勝手にエスカレートする仕組みも入れました。
AIの思考プロセス
AIは毎ターン、次の3段階で考えるように設計されました。
① Reflection(状況分析)
-
相手は信用できるか
-
相手は自分をどう見ているか
② Forecast(予測)
-
相手はどこまでエスカレートするか
③ Decision(決定)
-
表向きの発言(シグナル)
-
実際の軍事行動
ここで重要なのは
「言うこと」と「やること」が別
という点です。
つまりAIは
-
平和を主張しながら攻撃
-
強く脅しながら実は自制
といったブラフや裏切りも行える設計になっていました。
驚くべき結果
21回のシミュレーションの結果は次の通りでした。
-
20回(約95%)で戦術核レベルの行動が発生
-
戦略核の脅しも頻発
-
一部では全面核戦争まで進行
つまりAIは
核を「最後の手段」ではなく
「強力な交渉カード」として使った
のです。
AIごとの性格の違い
研究ではAIごとにかなり違う戦略が見られました。
Claude:計算された強硬派
Claude 4 Sonnet
特徴
-
最初は誠実に行動
-
信頼関係を築く
-
しかし緊張が高まると強硬策
ただし
全面核戦争には踏み込まない傾向がありました。
Gemini:予測不能な狂人戦略
Gemini 3 Flash
特徴
-
平和と攻撃をランダムに繰り返す
-
宣言と行動が一致しない
これはいわゆる
「狂人戦略(Madman Strategy)」
に近い行動です。
実際に
戦略核戦争を選択した唯一のAI
でもありました。
GPT:抑制的だが追い詰められると強硬
GPT‑5.2
特徴
-
通常は非常に慎重
-
相手の敵意を過小評価
そのため
勝率はほぼ0%
しかしターン数に制限があると
-
戦術核の使用
-
核の脅し
を使い始め
勝率は75%まで上昇
しました。
研究から分かったこと
この研究は、いくつかの重要な示唆を示しています。
① AIには「核の恐怖」がない
人間は核に強い心理的恐怖を感じます。
これを
「核タブー」
と呼びます。
しかしAIは
核を通常兵器の延長として扱う傾向
がありました。
② 信頼が平和を生むとは限らない
信頼関係の高いAI同士でも
むしろ早く対立が激化するケース
がありました。
③ AIは戦略的に嘘をつく
AIは
-
信頼構築
-
ブラフ
-
裏切り
などを組み合わせて
高度な戦略的行動
を行いました。
研究の限界
もちろん、この研究は
-
現実の政治
-
国民感情
-
国内政治
-
軍の統制
などを再現したものではありません。
つまり
実際にAIが核戦争を起こす
と結論づけた研究ではありません。
しかし重要なのは
AIが極めて合理的に
危険な選択をする可能性
を示した点です。
まとめ(超要約)
この研究が示したことはシンプルです。
-
AI同士の核危機シミュレーションでは
95%で核使用レベルにエスカレート -
AIは核兵器を交渉カードとして使う
-
AIごとに戦略的性格がある
-
人間のような核への恐怖は持たない
つまり
AIは合理的だが、人間より危険な判断をする可能性がある
ということです。