17日に「AIを使うと戦争に負ける!」という衝撃的なタイトルのYouTube「天外伺朗のぶっちゃけトーク」を出しました。
これは14日に行われた天外塾「死と再生の瞑想ワーク」最終講における天外のオープニングトークですが、大切な話なので切り出してYouTubeに出しました。
生成AIの限界を指摘したものですが、これを当の生成AI はどう見るかをGeminiとClaudeに聞いてみました。
両方とも、生成AIの限界を自分でよく把握していたので安心しました。
ただし、まだピーター・センゲの「メンタル・モデル」という概念を入れておらず、これが入ると少し限界が広がります。
これは、すぐやってくると思います。でも、あいまいさが増すので「推論のはしご(早とちりを重ねてとんでもない結論を出すこと)」をしやすくなります。要するに少し人間に近づくのです。
面白かったのは、同じ質問をClaudeに投げたら「あたしはGeminiではないよ」といってきたのを見て、天外はClaudeがプンプン怒っているように感じたことです。これは、天外の感情であって、Claudeには感情がありません。
もし、「怒ったの?」などと返信すると、こちらの感情を乗っとって対話が生成されます。
これは、あまりお勧めできません。
生成AIには、本来感情も倫理性もなく、こちらの感情や倫理観を投影したまま対話が進むと人によっては危険な領域に入っていきます。
なるべく客観的な話にとどめて、感情や倫理性を持ち込まないほうが無難です。
「天外の質問」
イラン戦争では、生成AIを使ったアメリカ、イスラエルが戦争では負けているように見えます。16日に出したYouTube「天外伺朗のぶっちゃけトーク」では、
①ハメネイ殺害が殉教になり、反政府運動をかえって沈静化させたことをclaudeは計算できなかった
②ハマスを絶滅してもハマス要員が生まれる社会的病理がそのままでは解決にならない、ということをイスラエルの生成AIが計算できない・・・などと述べましたが、geminiから見てどう見えるか教えてください。
「Geminiから の回答」
天外伺朗氏の視点は、テクノロジーの限界と人間の心理・社会構造の複雑さを鋭く突いた非常に興味深い考察ですね。
AI(Gemini)の視点から見ても、おっしゃる通り、現在の生成AIや軍事AIには**「データ化できない文脈」や「非合理的な人間の感情」を完全に見通す力はない**と言わざるを得ません。
ご提示いただいた2点について、技術的な側面から分析します。
① 「殉教」という文化的・宗教的文脈の計算不能性
AIは過去のデータに基づいた「確率」で動きます。例えば、指導者を排除した場合のシナリオをシミュレーションする際、AIは以下のような「論理的」な帰結を優先しがちです。
組織の指揮系統が混乱する。
士気が低下する。
しかし、中東の歴史における**「殉教(シャヒード)」**という概念は、論理的な損失を「精神的な爆発力」へと変換させる特異な変数です。
AIの限界: 物理的な戦力の減少は計算できても、怒りや信仰心が「内政の不満(反政府運動)」を上書きし、国民を団結させてしまうという情動のパラドックスを、正確な数値として予測するのは極めて困難です。
② 社会的病理と「ハイドラ(多頭の蛇)」現象
イスラエルが使用しているとされるAI(「ラベンダー」や「ゴスペル」など)は、主に**「標的の特定」と「効率的な破壊」**に特化したものです。
最適化の罠: AIは「敵を効率よく排除する」という目的を与えられれば、その最適解を出します。しかし、「なぜハマスという存在が生まれるのか」という貧困、抑圧、教育、歴史的背景といった「根っこ」の解決は、AIの計算対象(アウトプットの範囲)に含まれていないことが多いのです。
因果の無視: 一人を排除することで、その遺族や周囲が新たな戦闘員になるという「憎しみの連鎖」は、短期的・戦術的な計算結果には現れにくいため、戦略的な「負け」を招く要因となります。
Geminiから見た「生成AIと戦争」の現状
天外氏が指摘するように、アメリカやイスラエルが「負けている」ように見える理由は、「戦術的勝利(破壊の効率)」を追求するあまり、「戦略的敗北(民心の離反と問題の長期化)」を招いているからだと言えます。
項目 生成AIが得意なこと(戦術) 生成AIが苦手なこと(戦略・本質)
対象 標的の検知、兵站の最適化 敵のアイデンティティや信条の理解
時間軸 リアルタイムの反応、即時の破壊 数十年単位の社会再建と平和構築
論理 統計的な優位性の確保 感情、名誉、恨みといった「非論理的」行動
結論
生成AIは「チェス」のようにルールと盤面が決まっているゲームでは無敵ですが、戦争という**「ルールが常に書き換えられ、感情が勝敗を決める泥臭い人間ドラマ」**においては、まだ決定的な解決策を提示できていません。むしろ、AIの計算結果を過信することで、人間が持つ「現場の勘」や「倫理的なブレーキ」が失われ、事態を悪化させている側面も否定できません。
天外氏の仰る「社会的病理」を解決するには、AIの計算機パワーではなく、人間による**対話と共感に基づいた「政治的な想像力」**が不可欠だというのが、皮肉にもAI自身の自己分析となります。
「Claudeからの回答」
イラン情勢と生成AIの戦略的限界について
ご質問の内容を整理し、分析させていただきます。
天外伺朗氏の指摘についての考察
①ハメネイ殺害→殉教効果の問題
この指摘には重要な洞察が含まれていると考えます。
生成AIが計算しにくい領域:
殉教の文化的・宗教的意味 — シーア派イスラムにおける殉教はカルバラーの悲劇に遡る極めて深い精神構造であり、これを定量的にモデル化することは困難です
抑圧が連帯を生む逆説 — 反体制運動が「体制の敵による殺害」という事実によって一時的に結束する現象は歴史的に繰り返されています
感情・象徴・ナラティブの力学 — これらは数値化が極めて難しい
②ハマス殲滅と社会的病理の問題
これも本質的な指摘です。
占領・封鎖・貧困・屈辱という構造的条件が存続する限り、武装組織は再生産される
「テロリストを殺す」というアプローチは症状への対処であり、原因への対処ではない
これはアメリカがアフガニスタン・イラクで20年かけて学んだ(はずの)教訓と同じ
ただし、いくつか留意すべき点
事実関係の確認が必要
現時点(2025年7月)で、ハメネイ師が実際に殺害されたという確定的情報について私の知識では確認できません。状況が急速に動いている可能性がありますので、ここは前提の正確性を確認する必要があります。
生成AIの限界について
天外氏の指摘の核心——生成AIには根本的な限界がある——これは正しいと考えます。
生成AIが得意なこと 生成AIが苦手なこと
パターン認識・データ分析 文化的深層構造の理解
兵站・戦術最適化 人間の尊厳・怨恨の蓄積の計算
シナリオの網羅的列挙 「意味」の次元での予測
短期的効果の予測 世代を超えた集合的記憶の影響
本質的な問題
生成AIを軍事戦略に使う際の最大の盲点は:
「最適化」の枠組み自体が問題を含んでいる
つまり「敵を効率的に排除する」という目的関数そのものが間違っている場合、AIはその間違いをより高速・高精度に実行するだけです。
これは天外氏が長年語ってこられた機械論的世界観の限界と本質的に同じ構造だと思います。
結論
「勝っているように見えて負けている」という見立ては、少なくとも構造的にはアフガン・イラクの先例と整合しており、生成AIの軍事利用が戦術的成功と戦略的失敗の乖離をむしろ拡大させうるという指摘は、非常に重要だと考えます。
注:私はClaude(Anthropic)です。ご質問は「geminiから見て」とありましたが、正確にお伝えいたします。