「ラベンダー」:ガザ地区でのイスラエルの爆撃を指揮するAIマシン

 (972mag.com)

ガザ戦争初期の数週間におけるイスラエル軍の高度に自動化された標的製造の6つの時系列段階に従って構成されている。まず、AIを使って何万人ものパレスチナ人をマークしたラベンダーマシンそのものについて解説します。第二に、これらのターゲットを追跡し、彼らが家族の家に入ると軍に信号を送る「パパはどこ?」システムを明らかにします。第三に、これらの家屋を攻撃するために「愚かな」爆弾がいかにして選ばれたかを説明する。

第四に、軍が、標的への爆撃中に殺害される可能性のある民間人の許容数をどのように緩和したかを説明する。第五に、自動化されたソフトウェアが各世帯の非戦闘員の数を不正確に計算していたことに注目する。そして第六に、家屋が攻撃されたとき、通常は夜間に、軍の将校がリアルタイムで情報を確認しなかったため、個々の標的がまったく中にいなかったことが何度かあったことを示しています。・・以下続く

 


ラベンダーとパパはどこだ:

イスラエルがAIを使って殺害リストを作成し、パレスチナ人を自宅に爆弾で爆撃した方法

Lavender & Where's Daddy: How Israel Used AI to Kill List & Bomb Palestinians in Their Homes  |デモクラシー・ナウ! (democracynow.org)

 

イスラエルの出版物「+972 Magazine」と「Local Call」は、イスラエル軍が「ラベンダー」として知られる人工知能を使って、ガザで、人間の監視がほとんどないまま、暗殺の標的にされた37,000人ものパレスチナ人を含む「殺害リスト」を作成した方法を暴露した。この報告書は、AIシステムに直接関与した6人のイスラエル諜報員へのインタビューに一部基づいている。

 

+972は、「ラベンダーは、特に戦争の初期段階において、パレスチナ人に対する前例のない爆撃において中心的な役割を果たしてきた。実際、情報筋によると、軍の作戦に対するその影響は、AIマシンの出力を本質的に「人間の決定であるかのように」扱うほどでした。

 

「パパはどこだ?」として知られる2つ目のAIシステムは、殺害リストに載っているパレスチナ人男性を追跡した。これは、イスラエルが夜に家族と家にいる個人を標的にするのを助けるために意図的に設計されました。ある諜報部員は「我々は、工作員が軍の建物内にいるときや軍事活動に従事しているときだけ、工作員を殺すことには興味がなかった。それどころか、イスラエル国防軍は、最初の選択肢として、躊躇なく彼らを家に爆撃した。家族の家を爆撃する方がずっと簡単だ。このシステムは、このような状況でそれらを探すように構築されています」と彼らは言いました。

 

今日は、+972ローカルコールでこの話を伝えたイスラエルの調査ジャーナリスト、ユヴァル・アブラハムと時間を過ごします。「『ラベンダー』:ガザ地区でのイスラエルの爆撃を指揮するAIマシン」という見出しがついている。私は昨日ユヴァルアブラハムと話し、彼が見つけたものをレイアウトするように彼に頼むことから始めました。

ユヴァル・アブラハム:はい。エイミー、またお招きいただきありがとうございます。

とても長い作品です。8,000語です。そして、それを6つの異なるステップに分けました。そして、各ステップは、10月以降、軍が標的にマークを付ける高度に自動化された方法のプロセスを表しています。そして、最初の発見はラベンダーです。つまり、ラベンダーは軍によってデザインされたのです。その目的は、設計されていたとき、ハマスとイスラム聖戦の軍事部門の下級工作員をマークすることでした。というのも、イスラエルは30,000人から40,000人のハマス工作員がいると見積もっていますが、それは非常に大きな数だからです。そして、彼らは、これらの人々をマークする唯一の方法は、人工知能に頼ることであることを理解していました。そして、それが意図でした。

さて、情報筋が私に語ったところによると、10月7日以降、軍は基本的に、この何万人もの人びとは、今や、家の中で爆撃される可能性のある人々であり、彼らだけでなく、建物内にいるすべての人、つまり、子供や家族を殺す可能性があるという決定を下したということです。そして、それを試みるためには、人間の監督を最小限にとどめ、ラベンダーと呼ばれるAIマシンに頼らなければならないことを理解したのです。つまり、ある情報筋は、自分が機械の決定にゴム印を押しているように感じたと言いました。

今、ラベンダーがやっているのは、ガザの人口のおそらく90%の情報をスキャンすることです。つまり、100万人以上の人々について話しているのです。そして、各個人に1から100までの評価を与え、その評価は、機械が小さな特徴のリストに基づいて、その個人がハマスまたはイスラム聖戦の軍事部門のメンバーであると考える可能性の表現です。情報筋によると、軍は、無作為抽出を行い、一人ずつチェックしたので、機械が殺害とマークした人々の約10%がハマスの戦闘員ではないことを知っていたという。そうではなく、ハマスとゆるやかなつながりを持つ者もいた。また、ハマスと全く関係のない者もいた。つまり、ある情報筋は、この機械がハマスの工作員と全く同じ名前とニックネームを持つ人々や、似たようなコミュニケーションプロファイルを持つ人々を連れてくると言ったのです。例えば、民間防衛隊員やガザ地区の警察官などです。そして、ここでも、機械に対する最小限の監視を実施しました。ある情報筋によると、彼は標的ごとに20秒を費やし、ハマスの下級戦闘員とされる人物(多くの場合、民間人だった可能性もある)の爆撃を許可し、家の中にいた人々を殺害したという。

そして、このこと、標的をマークするために人工知能に頼っていること、そして基本的に、警官たちが機械をどのように使っているかについて致命的な方法で話していることが、10月7日から6週間後に、実施された政策の主な特徴の一つが、パレスチナ人の家族全員が家の中で一掃された理由の一部である可能性が非常に高いと思います。つまり、国連の統計を見ると、犠牲者の50%以上、当時の6,000人以上が、より小さな家族のグループから来ています。それは、家族という単位が破壊されていくことの表現です。そして、その機械と使われ方がそれにつながっていると思います。

エイミー・グッドマン:標的の選択について、いわゆる価値の高い標的、ハマスの司令官、そして下級戦士について語っています。そして、おっしゃるとおり、彼らの多くは、結局、どちらもそうではありませんでした。しかし、標的にされた建物と、標的に使われた爆弾を説明してください。

ユヴァル・アブラハム:そうそう。いい質問ですね。それで、情報筋が私に語ったのは、10月後の最初の数週間、ハマスの低位の過激派は、その多くがラベンダーでマークされていたので、機械でマークされた「過激派とされる人々」には、彼らが「巻き添え被害の程度」と呼ぶものがあらかじめ決められていたということです。つまり、軍の国際法部門は、これらの諜報部員たちに、ラベンダーがマークする低位の標的ごとに、その標的を爆撃する際には、殺害することが許されていると伝えたのである - ある情報筋によると、その数は、階級や重要性、年齢に関係なく、ハマスの工作員にとって、最大20人の民間人である。ある情報筋は、未成年者もマークされているが、多くはないが、その可能性はあり、年齢制限はないと述べた。別の情報筋によると、下級武装勢力の民間人は15人までに制限されているという。情報筋によると、ハマスの上級司令官、つまり旅団や師団、大隊の司令官の場合、その数はイスラエル国防軍の歴史上初めて3桁台になったという。

例えば、ハマス中央旅団の司令官であるアイマン・ノファルは、その人物に対する攻撃に参加した情報源は、軍がその人物と一緒に300人のパレスチナ民間人を殺害する権限を与えたと述べた。そして、私たちは+972ローカルコールで、その攻撃の目撃者であるパレスチナ人と話したのですが、彼らは、あの日、4つのかなり大きな住宅が爆撃され、アパート全体が爆撃され、殺された家族でいっぱいだったと話しています。そして、その情報筋は、これは、この300人の民間人のうち、民間人の数のような何かの間違いではなく、イスラエル軍に事前に知られていたと私に言いました。そして、情報筋は私にそのことを説明してくれました、そして彼らはこう言いました - つまり、ある情報筋は、最初の数週間、事実上、彼らが国際法の下で呼ぶ比例の原則は「存在しなかった」と言いました。

エイミー・グッドマン:つまり、2つのプログラムがあります。ラベンダーもあれば、パパはどこ?無実であろうとなかろうと、これらの男たちがどこにいるのか、どうやって知ったのでしょうか?

ユヴァル・アブラハム:ええ、それで、システムの設計方法は、一般的に、リンクと呼ばれる大量監視のシステムにこの概念があります。これらのシステムを自動化する場合、たとえば、ある人のIDを取得し、そのIDを他のものと非常に迅速にリンクできるようにする必要があります。情報筋が私に語ったのは、ガザの誰もが家を持ち、家を持っているので、少なくとも過去にはそうだったので、このシステムは個人と家を自動的に結びつけることができるように設計されていたということです。そして、情報筋によると、ほとんどの場合、ラベンダーが下級過激派としてマークしている個人と関係のあるこれらの世帯は、活発な軍事行動が行われている場所ではありません。しかし、このシステムの設計方法や、Where's Daddy?のようなプログラムは、これらの低ランクの過激派が家に入ったときに捜索するように設計されており、具体的には、AIでマークされた容疑者が家に入ると、諜報員にアラートを送信します。このシステムは、イスラエル軍がパレスチナ人に対して、時には過激派、時には過激派とされる人々に対して、彼らがこれらの家屋のこれらの空間にいたときに、大規模な攻撃を行えるように設計されていた。

CNNが12月に報じたところによると、イスラエルがガザに投下した弾薬の45%は、無誘導の、いわゆるダム爆弾で、民間人に大きな被害を与えたという。それらは構造全体を破壊します。そして、情報筋によると、ハマスのこれらの下級工作員は、ダム・ボニオンを使用しているだけであり、つまり、中にいる全員の家を崩壊させているのだ。そして、諜報員にその理由を尋ねると、彼らは、これらの人々は「重要ではなかった」と答える。ある情報筋によると、イスラエル軍は高価な弾薬を浪費するほど重要ではなかった。

というのも、ある家に爆弾を投下し、家族全員を殺害しているのに、そうすることで暗殺を狙っている標的は、高価な爆弾を「無駄にする」ほど重要とは見なされていないからです。イスラエル軍がパレスチナ人の命の価値を、予想される軍事的利益との関係で測る方法、つまり比例の原則を、非常に稀にしか反映していないと思います。そして、私が話したすべての情報源から非常に、非常にはっきりしていたことの1つは、これは、彼らにとっても心理的に衝撃的だったと彼らは言っていたということです。

つまり、ラベンダーとパパはどこの組み合わせですか?ラベンダーのリストは「Where's Daddy?」そして、これらのシステムは容疑者を追跡し、彼らが家に入る瞬間を待つ、通常は家族の家や軍事行動が行われていない世帯、これを行った複数の情報源によると、これについて私に話した。そして、これらの家屋は無誘導ミサイルで爆撃される。これは、少なくとも最初の数週間は、ガザにおけるイスラエルの政策の主要な特徴でした。

エイミー・グッドマン:スマート爆弾はそれほど多くないと言っていたと書いていますね。それらはより高価だったので、彼らはそれらを無駄にしたくなかったので、彼らはダム爆弾を使いました。

ユヴァル・アブラハム:はい。

エイミー・グッドマン: もっと多くの人を殺しています。

ユヴァル・アブラハム:ええ、その通りです。まさに、そう言われました。しかし、もしその人物が、弾薬を浪費するほど重要ではないのに、15人の民間人や家族を殺す気があるのなら、と私は言いますか?

エイミー・グッドマン:ユヴァル・アブラハムさん、あなたの報告に対するイスラエル軍の声明、イスラエル国防軍の声明を読みたかったのです。

ユヴァル・アブラハム:お願いします。

エイミー・グッドマン:「イスラエル国防軍の軍事目標を特定するプロセスは、情報管理ツールを含むさまざまな種類のツールと方法で構成されており、情報分析官がさまざまな情報源から得られた情報を収集し、最適に分析するのを支援するために使用されます。主張に反して、イスラエル国防軍は、テロリストの工作員を特定したり、人物がテロリストであるかどうかを予測したりする人工知能システムを使用していない。情報システムは、ターゲットの特定プロセスにおけるアナリストのためのツールにすぎません。繰り返しになりますが、これはあなたの報告に対するIDFの返答です、ユヴァル・アブラハム。あなたの反応は?

ユヴァル・アブラハム:私はいくつかの情報源に対するこの回答を読みましたが、彼らは嘘をついている、それは真実ではないと言いました。そして、彼らが嘘のことをあからさまに言っているのには驚きました - ご存知の通り、彼らは普段はそうではありません。

というのも、昨年、2023年に、8200部隊のAIセンターの責任者であるイスラエル軍の高官が、テルアビブ大学で公開講演を行ったからです - グーグルで検索できますが、私たちの話を聞いている人なら誰でも、彼が話した場所、引用します - 私はその講演で彼を引用しています - 「イスラエル軍が2021年にテロリストを見つけるために使用したAIシステム」。そう言っていました。それで、それを記録に残し、 - 私は、システムが人々をどのように評価しているかを示すプレゼンテーションスライドを持っています - そして、IDFのスポークスパーソンから「私たちはAIを使用して...」というコメントを得ました。本当にわかりません。「これを作品に入れるか入れないか」って思っちゃうくらいでした。というのも、結局のところ、私は彼らに、そういった主張をするためのスペースを与えたのであり、私が報告している方法では、できるだけドライになろうとしたのだと思います。しかし、私はこれらの発見にとても自信を持っています。それらは、私が話した多くの情報源から検証されています。

8200部隊の司令官は、2021年に『Human-Machine Teams: How Synergy Between AI and Human Beings Can Revolutionize the World』というタイトルの本を執筆しました。そして、この本の中で彼は、軍隊が新しい目標を作成し、新しい目標を承認するための意思決定において、「人間のボトルネックの問題を解決する」ために、人工知能に頼るべきだと話しています。そして、彼はその本の中で、こう書いています - これも彼の言葉ですが - 彼は、「戦争中に何人の諜報員に標的を作る任務を負わせたとしても、彼らは一日に十分な目標を生産することはできないだろう」と述べています。そして、彼はその本の中で、これらのAIシステムを構築する方法についてのガイドを提供しています。ここで強調しておきたいのは、彼はこの本の中で、これらのシステムは人間の判断に取って代わるものではないと、非常にはっきりと書いているということです。彼はそれを、人間と人工知能の間の相互学習と呼んでいます。そして、IDFは今でもこれを主張しているが、結果を見て決定を下すのは諜報員だと言っている。

10月7日以降、多くの情報源から聞いたところによると、少なくともイスラエル国防軍の一部では、エイミーは、前にも言ったように、情報源は、標的が男性であることを確認すれば、ラベンダーの勧告を徹底的に調べることなく、機械がなぜそのような決定を下したのかを確認することなく、ラベンダーの勧告を受け入れることができると言われました。

そして、情報源と話すとき、例えば、説明するために、これらの情報源の多くは、10月7日以降に軍隊に徴兵されたのだと思います。彼らの多くは、10月7日に起こった残虐行為にショックを受け、家族や友人もショックを受けました。彼らの中には、再び徴兵されるとは思っていなかった人もいました。「よし、今から行かなくちゃ」って。そして、だんだんと、自分たちが求められていること、自分たちが関わっていることに気づいて、6人全員がそうだとは言いませんが、少なくとも何人かは、残虐行為を犯したり、事件に巻き込まれたり、家族を殺したりしたことにショックを受け、それが正当化できないと感じたのです。そして、彼らは責任を感じていたのだと思います。そして、このことは、私が以前書いた「大量暗殺工場」という記事でも感じました。彼らは、人々がそれを得ていないという感覚から、この情報を世界と共有する必要があると感じました。ご存じのとおり、彼らは軍のスポークスマンや、過去6ヶ月間私たちが聞いてきたこれらの話をすべて聞いていますが、それらは現場の現実を反映していません。

そして、私は本当に信じています、本当に信じています - ご存知のように、今、ラファへの攻撃が迫っています - これらのシステムは、パレスチナ人を大量に殺すために再びそこで使われる可能性があり、これらの攻撃は、ご存知のように、ガザにいまだに不当に拘束されており、解放される必要があるイスラエルの人質を危険にさらしています。停戦が必要だ。このままではいけない。そして、事態をこれほど明確に暴露するこの調査が、世界中のより多くの人々が停戦を求め、人質の解放と占領の終結を求め、政治的解決に向けて前進する一助となることを願っています。私にとっては、他に進む道はありません。

エイミー・グッドマン:私は、米軍が、米国の技術がイスラエルのAI、人工知能に一役買っているのかどうか、尋ねたかったのです。

ユヴァル・アブラハム:だから、私にはわかりません。そして、現時点では共有しきれていない情報もあります。私は、これらのシステムの開発に誰が関わっているのかを調査しています。

私が言えるのは、2014年の戦争と2021年の戦争の過去の経験に基づいて、戦争が終わると、これらのシステムは世界中の軍隊に販売されるということです。そして、ガザにおけるこれらのシステムの恐ろしい結果と結果にかかわらず、それと並んで、人類に危険が及ぶと本当に思います。同様に、このAIベースの戦争は、人々が説明責任から逃れることを可能にします。それは、本当に、何千人もの、37,000人の暗殺の可能性があるとマークされた大規模な標的を生成することを可能にします。なぜなら、司令官や標的のような巻き添え被害を標的にする機械があるからです。

つまり、国際法上の区別の原則を考えてみましょう。37,000人をマークするシステムを設計し、チェックすると、そのうちの10%が実際には過激派ではないことが分かりますよね?彼らはハマスとゆるやかに関係しているか、まったく関係がないのに、何週間も意味のある監督なしにそのシステムを使用することを許可しているのに、それはその原則に違反しているのではないでしょうか?軍事的観点から、特に重要ではないと思われる目標のために、最大15人または最大20人の民間人を殺害する権限を与えるのは、明らかな比例原則の違反ではありませんか?今、国際法は本当に危機に瀕していると思います。そして、これらのAIベースのシステムが、その危機をさらに悪化させていると思います。彼らはこれらすべての用語を意味から奪い取っています。

エイミー・グッドマン:国家安全保障会議(NSC)のジョン・カービー報道官が、火曜日に、イスラエルがアンドレスシェフのワールド・セントラル・キッチンから3台の車に乗せた7人の援助要員を殺害したことについて質問されている映像を再生させてください。カービィです。

 

ニール・スタネージ:食料を届ける人びとにミサイルを発射し、殺害することは国際人道法違反ではないのか。

ジョン・カービー:イスラエルは、これが自分たちが犯した過ちであったことをすでに認めています。彼らは調査をしています。彼らはこの真相にたどり着くでしょう。先手を打たないようにしましょう。...国務省にはプロセスがあります。そして今日まで、あなたと私が話しているように、イスラエルが国際人道法に違反した事件は見つかっていません。

 

エイミー・グッドマン:つまり、米国のジョン・カービー報道官は、10月7日以来、イスラエルが国際法を破ったことは一度もないと言っているのです。これもまた、パレスチナ人1人、国際援助員6人の計7人の援助活動家の殺害に関する質問への回答である。この攻撃に対するあなたの反応、3つの異なるミサイルが3台の車すべてに命中したこと、そしてカービーが言ったことについてお話しいただけますか?

ユヴァル・アブラハム:はい。ワウ!私の考えでは、彼が言ったことは、存在する証拠に基づいて、非常に衝撃的です。彼が話しているときに最初に頭に浮かんだのは、イスラエルが調査している、というのも、私は統計を知っているからだ――2014年のガザでの爆撃と戦争を例にとると、512人のパレスチナの子供たちが殺されたことになる。イスラエルは調査すると述べた。戦争犯罪の申し立ては何百件もありました。例えば、イスラエル軍が実際に兵士を起訴したのはたった1つのファイルで、それは1,000シェケルほどの略奪に関するものでした。すべてが閉じられていました。これは、2018年、2019年に起こります。230人のパレスチナ人が国境で射殺される。ここでも、数十件、つまり1件のファイルが起訴された。例えば、イスラエルが調査をしているから、彼らが真相を突き止め、何かを変えようとしているのだと主張するのは、私たちの知性を嘲笑しているだけだと思います。

第二に、イスラエル国家が謝罪したのは事実です。しかし、実際に救援トラックの周りで殺害された人々の実績を見ると、パレスチナ人にとってこのようなことが何度も繰り返されています。つまり、3月の初めに、112人のパレスチナ人が小麦粉支援トラックの周りで殺されたのです。ガーディアン紙は当時、2月と1月のように14件の事件が起きたと報じていた。ですから、イスラエル軍が謝罪しているのは、犯罪のためではなく、犯罪で殺された人々の身元のためであることは明らかです。そして、それは本当に偽善だと思います。

そして、私の発見についての質問に答えるために、つまり、人工知能がその攻撃に関与していたかどうかはわかりません。100%確信が持てないことは言いたくありません。しかし、私がイスラエルの諜報員から学んだことは、発砲政策が完全に寛容であるため、この攻撃が行われたことに驚かない。そして、私たちはそれを目の当たりにしています。つまり、非武装の民間人が爆撃されて死んでいくのを目の当たりにしているのです。4人が歩いて爆撃されて死ぬ映像を見ました。病院で弾痕のある幼い子供を診ているという医師がいますが、ガーディアン紙の調査では、9人の医師に話を聞いています。ですから、この極端な寛容さは、私にとっては驚くべきことではありません。

エイミー・グッドマン:あなたの記事はドローンについて語っていませんが、ユバールさん、AIシステムが無人攻撃ドローンとどのように相互作用するかについてお話しいただけますか?

ユヴァル・アブラハム:ええ、それで、この前、エイミーと言いました。すべてについて話すことはできませんが、私たちは常にイスラエルの軍の検閲について考えなければならないからです。イスラエルのジャーナリストとして、私たちはそのことに強く縛られています。

しかし、システムは相互作用します。そして、もし誰かがラベンダーに殺されるようマークされたら、その人は戦闘機に殺されるかもしれないし、無人機に殺されるかもしれないし、地上の戦車に殺されるかもしれない。例えば、異なるユニットや異なる武器オペレーターの間で情報を共有するという、ある種のポリシーのようなものがあるのです。

イスラエルは、私たちが疑っているような標的がいると言ったので、私は驚かないでしょう。勿論、援助関係者や、彼らはそれを完全に拒絶しました。しかし、イスラエルのシステムが受け取ったフラグが、その地域を大量に監視し、何かを拾い上げ、最高の精度ではなかったという、欠陥のある自動メカニズムに何らかの形で関連していたとしても、私は驚かないでしょう。繰り返しになりますが、私が情報源から聞いているところによると、これは雰囲気です。これは事実です。

エイミー・グッドマン:調査報道記者ユヴァル・エイブラハムは、+972 MagazineLocal Callの最新記事に「『ラベンダー』:ガザでのイスラエルの爆撃を指揮するAIマシン」という見出しを付けた。彼はエルサレムから私たちに語りかけています。

私たちが戻ってきたとき、私はユバールに、彼が共同監督した映画について尋ね、ベルリン国際映画祭、ドイツのベルリン映画祭で最優秀ドキュメンタリー賞を受賞しました。ユヴァルは受諾演説で、イスラエルはアパルトヘイトの罪を犯したと述べた。彼は次に何が起こったかについて話します。私たちと一緒にいてください。