ラベンダー」: イスラエル軍のガザ空爆を指揮するAIマシン
イスラエル軍は何万人ものガザ住民を暗殺の容疑者としてマークしており、人間の監視はほとんどなく、死傷者に対する寛容な方針でAI標的システムを使用していることが、+972とLocal Callによって明らかになった。


ユヴァル・アブラハム
2024年4月3日

 

2021年、"The Human-Machine Team: 「Y.S.准将 」というペンネームで英語版が発売された。その中で著者は、イスラエルのエリート諜報部隊8200の現指揮官であることが確認された人物だが、戦争のさなかに軍事攻撃のための潜在的な「標的」を何千も生成するために、大量のデータを迅速に処理できる特別なマシンを設計することを主張している。そのようなテクノロジーは、彼が「新しい標的を見つけることと、その標的を承認する意思決定の両方における人間のボトルネック」と表現したものを解決するだろうと彼は書いている。

そのような機械は、実際に存在することが判明した。972』誌と『Local Call』による新たな調査で、イスラエル軍が「ラベンダー」として知られる人工知能ベースのプログラムを開発したことが明らかになった。今回のガザ地区での戦争で軍に所属し、AIを使って暗殺の標的を生成することに直接関わった6人のイスラエル情報将校によれば、ラベンダーは、特に戦争の初期段階において、パレスチナ人に対する前例のない爆撃で中心的な役割を果たしたという。実際、情報筋によれば、軍の作戦に対するその影響力は、基本的にAIマシンの出力を 「あたかも人間の判断のように 」扱うほどだったという。

正式には、ラベンダー・システムは、ハマスとパレスチナ・イスラミック・ジハード(PIJ)の軍事部門に所属する、低位の者も含めたすべての疑わしい工作員を、潜在的な爆撃対象としてマークするように設計されている。情報筋が+972とローカル・コールに語ったところによると、戦争の最初の数週間、軍はほとんど完全にラベンダーに頼っていた。

 

戦争の初期段階において、陸軍はラベンダーの殺害リストを採用することを将校に大々的に承認したが、機械がそのような選択をした理由を徹底的にチェックしたり、その根拠となる生の情報データを調べる必要はなかった。ある情報筋によれば、人間の担当者はしばしば、機械の決定に対する「ゴム印」としての役割しか果たさず、通常、爆撃を許可する前に、ラベンダーがマークした標的が男性であることを確認するためだけに、個人的に各標的に「20秒」程度しか時間を割かないという。このシステムは約10%のケースで 「エラー 」を犯し、時には過激派グループと緩やかなつながりしかない、あるいはまったくつながりのない個人をマークしてしまうことが知られているにもかかわらず、である。

さらにイスラエル軍は、標的となった個人を、軍事行動の最中ではなく、自宅にいる間(通常は夜間、家族全員がいる間)に組織的に攻撃した。情報筋によれば、これは諜報活動の観点から、個人宅の方が個人の居場所を特定しやすいからだという。今回初めて明らかになった 「Where's Daddy? 」と呼ばれるものを含む、追加の自動化システムは、標的となった個人を追跡し、彼らが家族の住居に入ったときに爆弾テロを実行するために特別に使われた。

 

その結果、情報筋が証言するように、何千人ものパレスチナ人(そのほとんどは女性や子ども、あるいは戦闘に関与していない人々)が、特に戦争の最初の数週間は、AIプログラムの判断のために、イスラエルの空爆によって一掃された。

「私たちは、(ハマスの)工作員が軍事施設の中にいたり、軍事活動に従事しているときだけ殺すことには関心がありませんでした」と、情報将校のAは+972とローカル・コールに語った。「それどころか、IDFは第一の選択肢として、躊躇することなく彼らを家の中で爆撃した。家族の家を爆撃するのはずっと簡単だ。システムはこのような状況で彼らを探すように作られている」

ラベンダー・マシンは、2023年11月に+972とローカル・コールが行った以前の調査やイスラエル軍自身の出版物で情報が明らかにされた別のAIシステム「福音」に加わる。この2つのシステムの根本的な違いは、標的の定義にある。「福音」が過激派が活動拠点としていると軍が主張する建物や建造物をマークするのに対し、「ラベンダー」は人間をマークし、殺害リストに載せる。

さらに、情報筋によれば、ラベンダーがマークした武装勢力の下級生とされる人物を標的にする場合、軍は(「スマート」精密爆弾とは対照的に)一般に「ダム」爆弾と呼ばれる無誘導ミサイルだけを好んで使用したという。「高価な爆弾を重要でない人々のために浪費したくはないだろう。国にとって非常に高くつくし、(爆弾は)不足している」と情報将校の一人であるCは語った。別の情報筋によれば、彼らはラベンダーにマークされた下級工作員とされる人物の個人宅を 「何百件も 」爆撃することを個人的に許可しており、これらの攻撃の多くは 「巻き添え 」として民間人や家族全員を殺害したという。

前例のないことだが、2人の情報筋によると、軍はまた、戦争の最初の数週間で、ラベンダーがマークしたハマスの下級工作員1人につき、15人か20人までの民間人を殺すことが許されると決定した。さらに情報筋は、標的が大隊や旅団の司令官クラスのハマス幹部の場合、軍は何度か、一人の司令官を暗殺する際に100人以上の民間人の殺害を許可したと付け加えた。

 

以下の調査は、ガザ戦争の初期数週間におけるイスラエル軍の高度に自動化された標的生産の6つの時系列段階に従って構成されている。まず、AIを使って何万人ものパレスチナ人をマークしたラベンダーマシンそのものについて説明する。第二に、これらのターゲットを追跡し、彼らが家族の家に入ると軍隊に信号を送る「パパはどこ?」システムを明らかにする。第三に、これらの家を攻撃するために「ダム」爆弾がどのように選ばれたかを説明する。

第四に、陸軍が、爆撃中に殺せる民間人の許容人数をどのように緩和したかを説明する。第五に、自動化されたソフトウェアが、各世帯の非戦闘員の数をいかに不正確に計算していたかを指摘する。第六に、通常夜間に家が爆撃されたとき、軍人がリアルタイムで情報を確認しなかったために、個々の標的がまったく家の中にいなかったことが何度かあったことを示す。
ステップ1:ターゲットの生成
自動化されると、標的の生成はおかしくなる

イスラエル軍では過去、「ヒューマン・ターゲット」という用語は、軍の国際法部門の規則に従って、周囲に民間人がいても個人の家で殺害できる軍の上級諜報員を指していた。情報筋が+972とローカル・コールに語ったところによると、イスラエルの以前の戦争では、この方法は誰かを殺すための「特に残忍な」方法であったため、(しばしば標的の家族全員を一緒に殺すことによって)このような人間の標的は非常に注意深くマークされ、国際法上の比例原則を維持するために、軍の上級司令官だけが自宅で爆撃されたのだという。

しかし、10月7日以降、ハマス率いる武装勢力がイスラエル南部のコミュニティに致命的な攻撃を仕掛け、約1200人が死亡、240人が拉致された。鉄の剣作戦』の下で、軍はハマスの軍事組織のすべての工作員を、階級や軍事的重要性に関係なく、人間の標的として指定することを決定した。それがすべてを変えた。

この新しい方針は、イスラエル情報機関にとっても技術的な問題となった。以前の戦争では、一人の人間の標的の暗殺を許可するために、将校は複雑で長い「incrimination」プロセスを経なければならなかった:その人物が本当にハマスの軍事組織の幹部であるという証拠を照合し、どこに住んでいるのか、連絡先を突き止め、最終的にいつ家にいるのかをリアルタイムで知る。標的のリストが数十人の幹部工作員しかいない場合、諜報部員は個々に、彼らの犯罪を暴き、居場所を突き止める作業をこなすことができた。

 

しかし、リストが何万人もの下級工作員に拡大されると、イスラエル軍は自動化されたソフトウェアと人工知能に頼らざるを得ないと考えた。その結果、パレスチナ人を軍事工作員として罪に陥れるという人間の役割は脇に追いやられ、代わりにAIがほとんどの仕事をするようになったと情報筋は証言している。972とローカル・コールの取材に応じた4人の情報筋によると、ラベンダーは、現在の戦争で人間の標的を作り出すために開発されたもので、約37,000人のパレスチナ人を「ハマスの過激派」の疑いがあるとして、そのほとんどを暗殺するためにマークした(IDF報道官は+972とローカル・コールへの声明で、このような殺害リストの存在を否定した)。

「イスラエルは(戦争前に)日常的に彼らを追跡していなかったので、我々は下級工作員が誰なのか知らなかった」と上級将校Bは+972とローカル・コールに説明し、今回の戦争のためにこの特殊なターゲット・マシンを開発した理由を明らかにした。「下級工作員を)自動的に攻撃できるようにしたかったんだ。それが聖杯なんだ。ひとたび自動化すれば、標的の生成は狂ってしまう」。

情報筋によれば、それまでは補助的なツールとしてしか使われていなかったラベンダーのキル・リストを自動的に採用することが承認されたのは、戦争が始まって2週間ほど経った頃で、情報部員がAIシステムによって選択された数百の標的の無作為サンプルの正確さを 「手動で 」チェックした後だったという。そのサンプルでラベンダーの結果が、ハマスに所属する個人を特定する精度が90%に達していることが判明すると、軍はシステムの全面的な使用を許可した。その瞬間から、情報筋によれば、ラベンダーがある個人をハマスの過激派と判断した場合、基本的にそれを命令として扱うように求められ、マシンがその選択をした理由を独自にチェックしたり、その根拠となる生の情報データを調べたりする必要はなかったという。

「午前5時になると(空軍が)やってきて、マークした家々を爆撃した。「私たちは何千人もの人々を連れ去りました。マークした人が家にいると、すぐに標的になった。私たちは彼と彼の家を爆撃した

「戦闘における重要性が非常に低い地上軍兵士を殺すために、家を爆撃するよう要請されたことは、私にとって非常に驚きでした」と、ある情報筋は、低位の武装勢力とされる人物をマークするためのAIの使用について語った。私はそういう標的を 「ゴミ標的 」と呼んでいた。それでも、「抑止力 」のためだけに爆撃する標的、つまり破壊を引き起こすためだけに避難させられたり倒されたりする高層ビルよりは倫理的だと思った」。

戦争初期におけるこの規制緩和がもたらした致命的な結果は、驚くべきものだった。ガザのパレスチナ保健省が発表したデータによれば、イスラエル軍が開戦以来ほとんど頼りにしてきたのは、11月24日に1週間の停戦が合意されるまでの6週間で、イスラエルは約15,000人のパレスチナ人--これまでの死者数のほぼ半分--を殺害したという。

 

情報と種類は多ければ多いほどいい

ラベンダーのソフトウェアは、集団監視システムを通じてガザ地区の住民230万人のほとんどについて収集された情報を分析し、それぞれの特定の人物がハマスやPIJの軍事組織で活動している可能性を評価し、ランク付けする。情報筋によると、この機械はガザに住むほぼすべての人に、過激派である可能性を1から100までの評価で示す。

ラベンダーは、既知のハマスやPIJの工作員の特徴を識別するために学習し、その情報を訓練データとしてマシンに与え、次に同じ特徴-「特徴」とも呼ばれる-を一般人の中から探し出す、と情報筋は説明する。いくつかの異なる特徴を持つ個人は高い評価を受け、自動的に暗殺のターゲットとなる。

この記事の冒頭で紹介した本『人間と機械のチーム』では、8200部隊の現指揮官が、ラベンダーの名前に言及することなく、このようなシステムを提唱している。(司令官自身の名前も出てこないが、Haaretzも報じたように、8200部隊の5人の情報筋が司令官が著者であることを確認している)。司令官は、人間を軍事作戦中の軍の能力を制限する「ボトルネック」と表現し、こう嘆く: 「我々(人間)はそれほど多くの情報を処理できない。戦時中に何人の人間に標的を作らせようとも、1日に十分な数の標的を作ることはできないのです」。

この問題の解決策は人工知能だと彼は言う。この本では、AIと機械学習アルゴリズムに基づいた、ラベンダーと似たような説明の「ターゲット・マシン」を構築するための短いガイドを提供している。このガイドには、既知の過激派とWhatsappグループに入っている、数カ月ごとに携帯電話を変える、住所を頻繁に変えるなど、個人の評価を高める「何百、何千もの」特徴の例がいくつか含まれている。

「情報が多ければ多いほど、種類が多ければ多いほど良い」と司令官は書いている。「視覚情報、携帯情報、ソーシャルメディアとのつながり、戦場情報、電話連絡先、写真。最初は人間がこれらの特徴を選択するが、時が経てば、機械が自ら特徴を識別するようになるだろう、と指揮官は続ける。これによって、軍隊は「何万ものターゲット」を作ることができるようになるが、攻撃するかどうかの実際の判断は人間が行うことになるという。

イスラエルの上級司令官がラベンダーのような人間標的マシンの存在をほのめかしたのは、この本だけではない。+972とLocal Callは、2023年にテルアビブ大学のAIウィークで8200部隊の極秘データサイエンス・AIセンターの司令官「ヨアヴ大佐」が行った個人講義の映像を入手し、当時イスラエルのメディアで報道された。

講義の中で大佐は、イスラエル軍が使用している、訓練された既知の過激派リストとの類似性に基づいて 「危険人物 」を検出する、新しい洗練されたターゲットマシンについて話している。「このシステムを使って、我々はハマスのミサイル分隊の司令官を特定することができた」と「ヨアヴ大佐」は講義の中で述べ、この機械が初めて使われた2021年5月のイスラエルのガザでの軍事作戦について言及した。

 

972とLocal Callが入手した講演会のスライドには、この機械がどのように機能するかが図解されている。既存のハマスの工作員に関するデータが与えられ、その特徴に気づくように学習し、次に他のパレスチナ人が過激派とどの程度似ているかに基づいて評価する。

私たちはその結果をランク付けし、(標的を攻撃する)閾値を決定する」と「ヨアヴ大佐」は講義の中で述べ、「最終的には生身の人間が決定を下す」と強調した。防衛の分野では、倫理的に言えば、我々はこれを重視している。これらのツールは、(情報将校が)彼らの壁を破るのを助けるためのものです」。

しかし実際には、ここ数カ月の間にラベンダーを使用した情報筋によれば、人間の主体性と正確さは、大量の標的の創造と殺傷力によって代用されたという。
エラーゼロ」の方針はなかった

ラベンダーを使用した上級将校のB.は、+972とローカル・コールに対し、今回の戦争では、時間を節約し、支障なく人間の標的を大量生産できるようにするため、将校がAIシステムの評価を独自に確認する必要はなかったと述べた。

「すべてが統計的で、すべてがきちんとしていた。彼は、ラベンダーの計算が正確なのは90パーセントに過ぎないという内部チェック結果にもかかわらず、このような監督不行き届きが許されていたと指摘した。言い換えれば、暗殺予定の標的の10パーセントは、ハマスの軍事組織のメンバーではないことが事前に知られていたということだ。

たとえば、警察や民間防衛の職員、武装勢力の親族、工作員と同じ名前やニックネームを持つ住民、かつてハマスの工作員が持っていた装置を使用していたガザンの住民などである。

「ある情報筋は、ラベンダーの不正確さに批判的だ。「曖昧な境界線だ。ハマスから給料をもらっていないが、いろいろなことでハマスに協力している人は、ハマスの工作員なのだろうか?過去にハマスにいたが、今はもういない人はハマスの工作員なのか?これらの特徴、つまり機械が疑わしいと判断するような特徴は、それぞれ不正確なのだ。」

 

同じような問題は、ターゲットマシーンが、暗殺の対象としてマークされた個人が使用している携帯電話を評価する能力にも存在する。「戦争中、パレスチナ人は常に携帯電話を変えている。「家族との連絡が途絶えたり、携帯電話を友人や妻に渡したり、あるいは紛失したりする。どの(電話)番号が誰のものかを判断する自動的なメカニズムに100%頼ることはできない。

情報筋によれば、軍は人間の監視が最低限しかないため、このような不具合を発見できないことを知っていたという。「ゼロ・エラー 」ポリシーはなかった。ミスは統計的に処理されました」とラベンダーを使用した情報筋は言う。「その範囲と規模の大きさゆえに、たとえ機械が正しいかどうかわからなくても、統計的には問題ないとわかっているのだから、やってしまえ、というのが手順だった。だから、それを選ぶのです」。

「それは証明されている。「統計的アプローチには、ある種の規範や基準を設定する何かがある。この作戦では、非論理的な量の(爆弾テロが)あった。これは私の記憶では他に例を見ない。そして私は、2日前に友人を失った兵士よりも、統計的メカニズムの方をはるかに信頼している。私を含め、そこにいる誰もが10月7日に人を失った。機械はそれを冷たくやった。それで楽になった」。

ラベンダーが作成したパレスチナ人容疑者の殺害リストへの依存を擁護する別の情報筋は、標的がハマスの上級指揮官である場合にのみ、情報を確認するために情報将校の時間を投資する価値があると主張した。「しかし、下級の過激派となると、人手と時間を割くことは避けたい。「戦争では、すべての標的を有罪にする時間はない。だから、人工知能を使い、巻き添えを食って民間人が死ぬリスクや、間違って攻撃するリスクを冒してでも、誤差を許容し、それに耐えようとするのだ」

B.は、この自動化の理由は、暗殺の標的をより多く生み出すための絶え間ない努力だと言った。「(攻撃を許可するのに十分な特徴を持つ)標的がない日は、敷居を低くして攻撃した。私たちは常に『もっとターゲットを持ってこい』とプレッシャーをかけられていました。本当に怒鳴られた。私たちはあっという間に標的の殺害を終えた」。

彼は、ラベンダーのレーティングのしきい値を下げると、より多くの人々が攻撃のターゲットとしてマークされると説明した。「しかし、その数は常に変化していた。ハマスの工作員とは何かという基準をどこに設定するかによって変わるからだ。ハマスの工作員がより広く定義された時期もあったし、その後、爆弾の無駄遣いになるのが恥ずべき民間防衛要員や警察官など、さまざまな人たちがマシーンに狙われるようになった。彼らはハマス政府を助けるが、兵士を危険にさらすことはない」。


ラベンダーを訓練した軍のデータサイエンス・チームで働いたある情報筋によると、彼が過激派とは考えていないハマスが運営する内務省の職員から収集したデータもマシンに投入されたという。ラベンダーが訓練されたとき、彼らは 「ハマスの工作員 」という言葉を緩く使い、訓練データセットには民間防衛の職員も含まれていたことが気になった」と彼は言う。

この情報源は、たとえこれらの人々が殺されて当然だと考えていたとしても、彼らのコミュニケーション・プロファイルに基づいてシステムを訓練することで、ラベンダーのアルゴリズムが一般の人々に適用されたときに、誤って民間人を選択する可能性が高くなったと付け加えた。「人間が手動で操作するのではない自動システムである以上、この判断の意味は劇的である。」つまり、民間人のコミュニケーションプロファイルを持つ多くの人々を潜在的なターゲットとして含むということだ。
標的が男性であることを確認しただけだ』。

イスラエル軍はこうした主張を真っ向から否定している。イスラエル国防総省報道官は、+972とローカル・コールに対する声明の中で、人工知能を使ってターゲットを有罪にすることは否定している。声明はこう続く: 「どのような場合でも、(情報)分析官による独立した検査が必要であり、それによって、特定された標的が正当な攻撃目標であることが、自衛隊の指令と国際法に定められた条件に従って検証される」。