![](https://static.972mag.com/www/uploads/2024/04/F231228YS51-e1714065149534-1200x802.jpg)
イスラエルのAIを駆使した戦争、人間が依然として中心的な役割の理由 ~ ソフィア・グッドフレンド
その1です。
シェアさせてもらった記事からの抜粋です。
機械訳なので、ちょっとわかりづらいかなと思った箇所は自分なりに補正しました。
『イスラエルのAIを駆使した戦争において、人間の行為が依然として中心的な役割を果たす理由
ソフィア・グッドフレンド
2024年4月25日
イスラエルがガザに与えた破壊は、アナログの戦争時代を思い起こさせる。
クレーターが住宅団地を飲み込み、通り全体が瓦礫と化し、塵の雲が太陽を遮っている。
イスラエル軍は、第2次世界大戦で広島と長崎を破壊した爆弾よりも多くの爆薬を、124平方マイルの飛び地に投下した。
破壊の規模と密度は、ロンドン爆撃からベトナムでの数十年にわたる反乱鎮圧まで、近年の市街戦で最も壊滅的な出来事に匹敵する。
しかし、20世紀の戦争とは対照的に、
イスラエルのガザ攻撃は、根本的にハイテクな殺戮作戦である。
今月初め、+972とLocal Callの調査報道により、流血事件におけるAIの極めて重要な役割が明らかになりました。
6人のイスラエル諜報員によると、軍は「ラベンダー」というニックネームのAIマシンを使って、ハマスやパレスチナのイスラム聖戦の武装勢力の一部であるとの理由で、暗殺の対象となる数万人の「人間の標的」を生成した。
これらの出力はその後、「Where’s Daddy?(パパはどこ?)」と呼ばれる自動追跡システムに送られ、軍は家の中で一人一人を殺害し、家族全員、そして多くの場合、多くの隣人を殺すことができました。
これらの暴露は、 +972とLocal Callによる以前の調査に続くもので、その調査では「Habsora(ハブソラ)」(「福音」)として知られる別のAI標的生成システムが明らかになった。
ラベンダーが人間の標的を生成するのに対し、
ハブソラは軍事機能を果たしているとされる建物や構造物にマークを付けます。
ある元諜報員は+972に対し、この技術によりイスラエル軍は事実上「大量暗殺工場」を運営できると語った。
この最新の調査は国際メディアで大きな話題となり、コメンテーターらはAI搭載兵器システムが人間の操作能力を超え、気まぐれに殺人を犯すという光景を思い浮かべた。
しかし、国際法とAI戦争の専門家らは、
ガザでの大虐殺は、人間の協調的決定の結果であると+972に強調した。
そして、イスラエルの軍事・政治の上層部だけでなく、世界中の民間技術部門全体が虐殺に関与している可能性がある。
ガザでの1日の死亡率は21世紀のどの戦争よりも高く、
標的を絞った暗殺で民間人の死傷者を最小限にとどめるという公約は、
かつてあったとしても、完全に無視されたようだ。
情報筋によると、イスラエル軍当局は、どの標的を自宅で殺害できるかを決定する基準を大幅に引き下げる一方で、
各攻撃で許容される民間人の犠牲者の閾値を引き上げ、
場合によっては、たった1人の上級軍事標的を殺すために、何百人もの民間人を殺害することを承認した。
イスラエル国防軍のダニエル・ハガリ報道官が戦争初期に述べたように、「何が最大の損害を引き起こすか」に重点が置かれていた。
誤解のないように言っておくと、イスラエルはガザに対する現在の戦争で完全自律型兵器に頼っているわけではない。
むしろ諜報部隊は、AI 搭載の標的選定システムを利用して、
民間人や民間インフラを、過激派組織に所属している可能性に応じてランク付けしている。
これにより、軍が殺害対象を選択するプロセスが急速に加速および拡大し、1 日で生成される標的の数は、人間の人員が1 年間で生成できる数を上回ります。
迅速な標的生成には、迅速な承認が必要となる。
+972 と話した諜報員は、
ラベンダーが標的を誤認していることを知りながら(ラベンダーの基準が放漫であるとはいえ、約 10 パーセントのケースで誤認している)、個々の攻撃の承認にわずか 20 秒しか費やしていないことを認めた。
多くの人々(みなるん注:イスラエル政府やイスラエル軍?)は、殺そうとしている相手が人間であることを確認するだけで、ガザのほとんどを死の罠に変えてしまった。
「[+972]の報告書で私が衝撃を受けたのは、軍がこの技術に与えた自律性と信頼性の程度だ」
と、ロンドン大学キングス・カレッジの国際関係学講師であるアロンソ・グルメンディ・ダンケルベルグ氏は+972に語った。
「軍はこれによって、民間人を組織的に標的にすることを冷静に承認できるのだ」
国際法教授で人権とテロ対策に関する国連特別報告者のベン・ソール氏は、
こうしたシステムへの過度の依存が、イスラエルがガザで引き起こした破壊に表面上の合理性を与えていると述べた。
いわゆる「スマートシステム」は標的を特定するかもしれないが、軍はある諜報員が「ゴミの標的」と表現した標的に高価な爆弾を使いたくないため、爆撃は誘導のない不正確な「ダム」弾で実行される。
「イスラエルには、軍事弁護士がおり、軍事司法制度があり、
国際人権法の遵守に役立つはずの作戦手順や交戦規則がある」
とソール氏は言う。
「だが、この戦争は基本的な人道的ルールからかけ離れている」
(みなるん注:「国際人権法の遵守に役立つはずの作戦手順や交戦規則がある」
ほんとうに、今までそういったものがあったのでしょうか?
もしあったとしたら、イスラエルはそれを全く遵守しなかった?
それとも、昨年の10月以降はもちろん、それ以前もパレスチナの人達を殺したり負傷させたり家や建物を破壊したり・・・そんな占領作戦が好きにまかりとおる「国際人権法の遵守に役立つはずの作戦手順や交戦規則」だったのでしょうか?)
2024年4月21日、ガザ地区南部ラファ市のアル・ナジャール病院で、イスラエルの空爆で殺害された親族に別れを告げるパレスチナ人。(アベド・ラヒム・ハティブ/Flash90)
国連、人権団体、そして多くの政府は、イスラエルが国際人権法、そして同国が署名しているジュネーブ条約とハーグ条約の主要条項に継続的に違反していると警告している。
これらの条約はいずれも民間人の組織的かつ意図的な殺害を禁じている。
しかし法学者達は、これらのハイテクシステムが過去6か月半の戦争で国際法の組織的無視を助長してきたと述べている。
この戦争でイスラエルは34,000人以上のパレスチナ人を殺害し、76,000人以上を負傷させ、さらに11,000人以上が行方不明となっている。
これらの機械が実際の人間によって操作され、利用されているという事実は、
イスラエル軍当局にとって深刻な意味合いを持つ。
ラベンダーとWhere's Daddy?はAI搭載システムと謳われているが、
イスラエル軍のトップでさえ、それらは自律的に動いているわけではないと述べている。
これらの技術がどのように実行されるかは、統一された指揮系統によって指示されている。
ヒューマン・ライツ・ウォッチの上級監視研究員、ザック・キャンベル氏は+972に次のように語っている。
「確かにこの技術は問題だが、
これらのシステムがどのように使用されるかということも問題だ。
そして、それは人間の判断です」
イスラエル政府当局者は、10月7日の事件の後、その意図を明らかにした。
戦争の初期には、
イスラエルのイサク・ヘルツォグ大統領は
「ガザには罪のない民間人はいない」と宣言し、
閣僚たちはこの戦争は新たな「ナクバ」の始まりであると宣言した。
他の政治家はガザ地区全体を「平らげる」よう求めた。
2000ポンド爆弾が住宅街全体を吹き飛ばし、
ブルドーザーが学校や病院を破壊し、ガザ地区の全域が「殺戮地帯」とみなされた。
これらの命令は、社会学者ヤギル・レヴィが最近イスラエル軍を「死を生み出す軍隊」と呼んだものに変えるための、何年もかけて進められてきた取り組みに沿ったものだった。
「問題はAIにあるのではない」
と、AIシステムの無制限な開発を調査している技術記者のブライアン・マーチャント氏は+972に同調した。
「問題は、AI(みなるん注:人間の指揮系統によって指示された?)が軍隊に何をさせるかです。
AIは、より暴力的になり、より不注意になり、
彼らがすでに持っていた、あるいは正当化するための口実を探しているアジェンダを主張する根拠を提供します」』