ガザ地区におけるイスラエルの戦争犯罪は、

AIの真の危険性を浮き彫りにした

by ジェニファー・レノウ

人工知能がもたらす最も差し迫った脅威は、機械が人間に取って代わるというSF的なシナリオではありません。それは、100%人為的な残虐行為を実行するためのツールとしてAIを使用することであり、現在ガザで行われているのを見ることができます。

Israel’s War Crimes in Gaza Show the Real Danger of AI (jacobin.com)

 

 

〈記事の要約〉

イスラエルのメディア+972とLocal Callは、2023年10月8日に始まったガザへの軍事作戦「鉄の剣作戦」におけるAIの役割について詳しく調査しました。イスラエル国防軍(IDF)の6人の匿名の証言者によると、「ゴスペル」、「ラベンダー」、および「Where's Daddy?」という3つのアルゴリズムシステムが使用されています。「ゴスペル」は物理的なターゲットを、「ラベンダー」は人間のターゲットを生成し、「Where's Daddy?(パパはどこ?)」はラベンダーが生成したターゲットが自宅に戻った時点を予測して爆撃を行うシステムです。

 

これらのシステムは人間の監視がほとんどなく、IDFはこれを否定していますが、大規模な破壊を引き起こしているとされています。IDFは、初期の5日間でガザに4,000トンの爆弾を投下し、その半分は「パワーターゲット」と呼ばれる非軍事的な民間施設に対して行われました。

 

IDFは2006年のヒズボラとの戦争で使われた「ダヒヤ・ドクトリン」を引用し、民間人への破壊を正当化しています。IDFのスポークスマンは「最大のダメージを与えることに焦点を当てている」と述べ、イスラエル政府の目的はハマスを根絶することだと主張しています。しかし、民間人の存在を無視したターゲティングが行われているとの疑念が広がっています。

 

「ラベンダー」は、PU学習(Positive and Unlabeled Learning)という手法で訓練され、ハマスとPIJのメンバーを特定しますが、この手法では民間人が正確に識別されない問題があり、誤爆が発生しています。さらに、「Where's Daddy?」システムはターゲットが家にいるタイミングを特定し、無誘導の爆弾を使って爆撃することで、さらなる民間人の犠牲者を増やしています。

 

AIシステムは規模と効率を提供し、技術的な隠れ蓑となる一方で、人間の決定がその背後にあることを見えにくくしています。AIモデルの設計、訓練、運用に関する人間の意思決定が重大な影響を及ぼしており、その責任を認識することが重要です。AIが私たちの生活にますます浸透する中で、その倫理的な使用と人間のコントロールを放棄しないことが求められます。