以下「In Deep」様より転載

https://indeep.jp/towards-the-third-period-of-the-cycle/

・イスラエルは、ガザ地区で誰を殺害するかをAIに決定させている

Libertarian Institute 2024/04/11

※イスラエル軍がガザ地区の爆撃目標を選択するためにさらに別の AI ベースのシステムを採用したことが、イスラエルの +972マガジンの調査で明らかになった。

この新しいシステムは、殺害するべき数万人のパレスチナ人の包括的なリストを生成したが、これは致死攻撃を計画するためにイスラエル国防軍が AI への依存を強めている一環だ。

テルアビブに本拠を置く +972マガジンは、6人のイスラエル諜報員の話として、「ラベンダー」と呼ばれるこれまで 未公開のAIシステムが、昨年10月以来のガザへの「前例のない爆撃で中心的な役割」を果たしており、軍はその成果物を、それが人間の判断だった場合、事実上「不正行為」として扱っていると報じた。

「正式には、ラベンダーシステムは、低位の者も含め、ハマスとパレスチナ・イスラム聖戦(PIJ)の軍事部門の容疑者全員を潜在的な爆撃標的としてマークするように設計されている」と同紙は報じ、「最初の数週間は」と付け加えた戦争中、軍はほぼ完全にラベンダーに依存しており、ラベンダーは空爆の可能性に備えて、37,000人ものパレスチナ人を過激派容疑者として、そして彼らの家を記録していた」と報じた。

しかし、結果として生じた空襲で数千人が死亡したが、その大半は「女性と子ども、あるいは戦闘に関与していない人々」だったと将校たちは +972マガジンに語り、イスラエルの野戦指揮官たちは相談もせずに AI システムに頼ることが多いと指摘した。

「人間の人員は、しばしば機械の決定のための『認め印』としてしか機能しなかった」と、ある情報筋は述べ、多くの指揮官は攻撃を承認する前に目標を検討するのにわずか「20秒」しか費やしていないと付け加えた。

意思決定プロセスにおいて人間の入力は非常に小さな役割に追いやられているため、ラベンダーの結論はしばしばイスラエル軍によって「命令」として扱われ、「なぜ機械がその選択をしたのかを独自に確認する必要はない」と記されている。

このような決定は、少なくとも 10%のケースでターゲットの誤認を引き起こすよく知られたシステムエラーにもかかわらず行われた。

それにもかかわらず、AI は攻撃対象となる過激派容疑者の自宅を「体系的に」選択しており、イスラエル国防軍の爆撃は家族全員が存在する可能性が高い深夜に頻繁に行われている。

戦争の初期段階でハマスの下級戦闘員を標的にする際、軍は主に無誘導の「ダム爆弾」の使用に頼り、そのような作戦では「最大 15人か 20人の民間人を殺害する」ことは許容されると結論付けたと情報筋は述べた。一方、上級過激派は場合によっては「 100人以上の民間人」の殺害を正当化する可能性がある。(※ これくらいの数の民間人が巻き添えとなっても構わないということだと思います)

あるイスラエルの上級官は「重要でない人々に高価な爆弾を無駄にしたくない」と語った。



自動暗殺

「ラベンダー」システムは、イスラエル軍の作戦を指揮するために使用された最初の AI プログラムではない。 +972マガジンが発表した「 Where's Daddy? (パパはどこ?)」として知られる別のシステムも、「特に標的となった個人を追跡し、家族の住居に侵入した際に爆破を実行するために」使用されている。

ある匿名の諜報員は +972マガジンに対し、住宅は標的の「第一選択肢」とみなされており、イスラエル国防軍は「ハマスの工作員が軍事施設にいるか、軍事活動に従事している場合にのみ殺害することには興味がない」と述べた。(※ 同じ殺すなら、住宅にいるときに家族もろとも殺害することを選ぶという意味だと思います)

国連の推計によれば、4月の時点で、イスラエルによる爆撃により、ガザ地区の全住宅の 62%という驚異的な割合、つまり約 30万戸が損傷または破壊され、100万人以上が国内避難民となっている。

この地域の住宅部門はイスラエルの猛攻撃の矢面に立たされており、これまでのガザ破壊の 3分の 2以上を占めている。

以前の報道では、イスラエルの AI 主導のこの「大量暗殺工場」にさらなる光が当てられており、別のプログラム「ザ・ゴスペル」は、従来の方法を大幅に上回る速度で大規模な標的リストを自動的に生成するために使用されていた。

この AI ツールの指導の下、イスラエル軍は高層住宅や公共の建物など、彼らが「権力目標」と呼ぶものをますます攻撃している。このような攻撃は、パレスチナ社会に「民間圧力」をかける取り組みの一環であると伝えられているが、これは集団的懲罰の一形態として国際法で明らかに禁止されている戦術だ。

イスラエル国防軍は、ガザとヨルダン川西岸での作戦計画において長い間広範な「標的バンク」に依存し、過激派の指揮所や施設の疑いのある長いリストを収集してきた。

しかし近年、イスラエル軍は、意思決定を自動システムに委託しているため、これらのリストには数千の潜在的な標的が含まれるまでに膨れ上がっている。

ガザやそれ以外の地域で死者をもたらすために使用される一連の AI プログラムに加えて、イスラエルの「消防工場」と言われる AI システムは、弾薬の積載量を自動的に計算し、選択されると特定の航空機やドローンに目標を割り当てるのに役立つ。

「以前は数時間かかっていた作業が、今では数分で済むようになった」とイスラエル国防軍大佐はブルームバーグへのコメントでこのシステムについて語った。

同様に、人工知能と AI を活用した顔認識技術は、占領地とイスラエル本土との間の国境やヨルダン川西岸の検問所の警備において大きな役割を果たしており、イスラエル国防軍は パレスチナ人の身元を特定、監視、逮捕するための 新しいシステムを次々と導入している。