このところ、ガザでAI兵器が使われているらしいと言われ、そのさきに、「自律型致死兵器システム(LAWS: Lethal Autonomous Weapons Systems)」の問題性が、議論されている。
以下、外務省のサイトを引用して、問題点を整理してみよう。
********************
自律型致死兵器システム(LAWS: Lethal Autonomous Weapons Systems)とは
人間の関与なしに自律的に攻撃目標を設定することができ、致死性を有する「完全自律型兵器」を指すと言われているものの、定義は定まっていません。
経緯
*議論のきっかけ
2013年、国際NGOが「殺人ロボット阻止キャンペーン」を開始しました。また、国連人権理事会のヘインズ特別報告において「自律型致死性ロボット」に対する国際社会の対処の必要性が指摘されました。
*CCWで議論
2014年から2016年にかけて、特定通常兵器使用禁止制限条約(CCW)の枠組みにおいてLAWSに関する非公式会合が開催されました。
2017年からはCCWの枠組みにおいてLAWSに関する政府専門家会合(GGE)が開催されました。
2019年11月、CCW締約国は、2020年と2021年の2年間にわたってGGEを開催すること、また、
11項目から成るLAWSに関する指針(PDF)
について一致しました。そして、同指針を含む議論を、規範・運用の枠組みの明確化・検討・発展に関する勧告のための基礎として活用していくこととなりました。
その後、2021年の第6回CCW運用検討会議で2022年のGGE開催、2022年CCW締約国会議で、2023年のGGE開催が合意され、引き続き、CCWの枠組みの下、LAWSに関し、その定義・特徴、人間の関与の在り方、国際人道法上の課題、規制の在り方等について議論が行われています。
*CCWの議論における主要論点
@LAWSの定義(特徴)
現存しない兵器であるLAWSを、どのように定義するか。また、LAWSはどのような特徴を持っているか。
@人間の関与の在り方
LAWSの使用には、一定の人間の関与が必要であることは、国際的に共通の認識であるが、何に対して、どのような方法で関与するべきか。
@国際人道法との関係
LAWSの使用に当たって国際人道法を守るべきことは、国際的に共通の認識(不必要な苦痛の禁止、攻撃対象を戦闘員及び軍事@目標に限定(区別原則)、損害と軍事的利益との比較(均衡性原則)等)であるが、どのように国際人道法の遵守を確保するか。
@既存の兵器との関係等
人工知能(AI)等の自律化技術を搭載した既存の兵器システム全てを規制することが適当か。また、民生用技術と兵器用技術の境界をどのように画定するか。
@規制の在り方
LAWSを規制する枠組みとして、法的拘束力のある文書、政治文書又は行動規範、成果文書、議論の継続等のうち、いかなる形式が適切か。
*********************
以上は、きわめてSFめいてくる話だが、LAWSは、POST核兵器のリーサルウェポン(最終兵器)になるかもしれない。
自律的判断とは、愚かな人間に代わって、「何が正義」を自分で判断するAIということになる。核兵器とAIが合体してゆく可能(核兵器のAIによる運用判断)性もある。
設計思想は、おそらく功利性原理(最大多数の最大幸福の追求)とAIの永続生存の環境保全志向だと思われる。そうなると、政治判断にも功利主義が採り入れらてくるだろう。
AIにとって、人類がノイズ→悪と判断されれば、結果は見えてくる。
そこには、恐ろしい未来、あるいは、見たくない(人類にはすでに見えない)未来があるのかも・・・
そこで一句。
最小の不幸ならよし燕魚 ひうち