昨日の毎日新聞朝刊に「海図なき世界 AIの軍事利用 リスクを制御できるのか」という社説が掲載されていました。
その要旨は、AI兵器が攻撃の効率を高める一方で、人間の判断責任を曖昧にし、倫理観の喪失を招く危うさを指摘するものです。特に、人間の関与なしに殺傷を行う「自律型致死兵器システム(LAWS)」の実用化への懸念が示されています。AIは「第2の核」とも称されます。私たちは今、かつての核軍拡競争にも似た、人類の歴史を左右する危うい岐路に立たされているといえるでしょう。
現在のウクライナ情勢や中東情勢を見ても、すでに戦略の中にAIが深く組み込まれていることが分かります。
現代戦の主流となりつつあるドローンの自律飛行や、衛星画像から車両の動きを解析して兵器の所在を特定する技術などは、すでに実用段階にあります。
社説が警鐘を鳴らすLAWSも、現在のAIの進化スピードを考えれば、決して遠い未来の話ではありません。かつてSF映画の中だけの存在だった「標的を選ばず殺戮を繰り返すロボット」が現実のものとなる可能性は、否定できないところまで来ています。さらに恐ろしいのは、プログラムの暴走や予期せぬ誤作動により、自らが生み出した兵器が味方や制作者自身に牙を向くシナリオです。
野放図な開発を防ぐための「国際的なルール作り」が急務であることは間違いありません。しかし、それと同時に、万が一の暴走から人類を物理的・技術的に守るための「抑止の科学」を確立することも、今を生きる私たちに課せられた重要な課題ではないでしょうか。
