今日はこの話題でいきます。
「人工知能(AI)を備えた自律型ロボットが人間を殺しながら戦場をさまよう──
そんな未来を回避するために世界は今すぐ行動する必要があると、
「世界経済フォーラム(WEF)」年次総会(ダボス会議)に集った

政財界の有力者や科学者、軍事専門家らが警鐘を鳴らした。

 

科学者らは自律型ロボット兵器の配備が、戦争行為の危険な新時代を

象徴するようになると述べ、そうした兵器の開発を阻止するための

合意が必要だと主張した。」(1月23日 AFP)
 

ふむふむ、まずこれは、単なる反戦のための声明ということではないみたいですね。
戦争自体は認めるものの・・・という話のようです。また「自律型ロボット兵器」

と聞くと、SF映画に出てくるような無差別殺人機械を思い浮かべてしまいますが、
どうやらそれだけではない、難しい問題をはらんでいるようです。
というのは記事はこう続くからです。

 



「米カリフォルニア大学バークレー校(University of California, Berkeley)
のスチュアート・ラッセル(Stuart Russel)教授(コンピューター科学)は、
「われわれが話題にしているのは、人間のパイロットが操作する無人機の

 

ことではなく、自律型兵器のことだ。後方で操作する人は誰もいない。

AI兵器、つまり人工知能兵器だ。非常に正確で、人間の介入なしに

標的の位置を特定し、攻撃できる兵器だ」と語った。」

無人機を用いた爆撃はアフガニスタンや中東で盛んに用いられました。
自らは安全な場所にいる兵士が、コンピュータで無人機を操作して

ピンポイント爆撃を行う。これは自軍の人的損失を防ぐには格好の戦術で

あるのですが、作戦に従事した兵士の中には、精神的なトラウマに

苦しんでいる人が多くいる、というニュースがあったのは

記憶されている方も多いでしょう。

「米軍がアフガニスタンやイラクで「テロリスト掃討」を目的に実施してきた

無人機空爆作戦で、実際に無人機を遠隔操作して攻撃に参加した元米空軍操縦士、
ブランドン・ブライアントさん(29)が毎日新聞の取材に応じた。


自宅がある米西部モンタナ州ミズーラの喫茶店で「テロとの戦い」について

語った。ブライアントさんは、「敵かどうかも分からない多数の人を

殺害した。自分の過去は変えられず、悔いても悔いきれない」と、
除隊から3年以上たつ今も自責の念にかられている。 」(毎日新聞)

 



まあそうでしょうねえ。上官の命令であり兵士としての任務であるとはいっても、
自分の行為によって確実に人が死んでいくわけですから。しかも無人機の

カメラによる中継で、モニターを通して、人の体がちぎれ飛ぶ様子が

はっきり見えているのです。ピンポイント攻撃であっても、

民間人を巻き込む可能性は常にあるわけで、
精神的にきついのは当然のことでしょう。


ましてこの場合、殺るか殺られるかの戦闘行為として、
自分にも相手と同様のリスクがあるわけではないですし。
しかしどうやら、この兵士が感じている良心の呵責が重要であるようです。

「西イングランド大学(University of the West of England)の
アラン・ウィンフィールド(Alan Winfield)教授(電子工学)は、
戦場での意思決定から人間を除外することが招くだろう深刻な結果を懸念し、
「それは人間から倫理的責任が奪われるということだ」と語った。


またロボットの反応は予測しがたいとも付け加え、
「混沌(こんとん)とした状況の中にロボットを置けば、
ロボットは無秩序に振る舞う」とも述べた。」

 


 
無人機によるピンポイント爆撃が、
倫理に反した行為ではないかと感じている方は多いと思います。
かといって有人機の爆撃がいいというわけでもないでしょうが。
こういう違和感というのは重要です。


もしも遠隔操作兵士の中で、前掲のブランドンさんのように声を上げる人が

多くなれば、無人機による攻撃にも歯止めがかかってくるかもしれません。
そういうフィードバックの作用というのは人間の中にはあると思われます。
人間が、コンピュータを通してであっても、引き金を引いて人が死ぬ、
そこには倫理的な責任があるわけです。

ところが、自立型のロボット兵器は、人工知能によって自ら判断し

作戦行動を行う。そこには倫理的な責任を持つべき人間、良心の呵責を

感じる人間が不在になってしまう。(とはいえ、自立型ロボット兵器が

暴走しそうなときには、スイッチを切る監視役の人間はいるものと思われますが)
そういう観点から、科学者のフォーラムはこの声明を出したということのようです。

確かに、ただ単に「敵の殲滅」というテーマを与えれば、
ロボット兵士は徹底して無慈悲な殺戮を行うことになるでしょう。
では、人工知能に良心回路のようなものをつければいいのでしょうか?
しかし何が善で何が悪なのか、自国の利害とのからみはどうするのか。
これはプログラミングが難しそうです。

 



「英航空防衛機器大手「BAEシステムズ(BAE Systems)」のロジャー・カー
(Roger Carr)会長もこれに同意し、「平和な時にせよ戦時にせよ、

人間の営為から道徳や判断、倫理を除外してしまえば、

 

人類はわれわれの理解を超える別のレベルに至ってしまう。
同様に、正常に機能しなくなった際に、人間による制御メカニズムが利かない
極めて破壊的になり得るものを戦場に投入してはならない」と述べた。」


まあこのコメントのとおりでしょう。戦争にしろ、それ以外の社会的行為にしろ、
これまで人間が判断して、人間的に行われていたことが、
人工知能の作為によってなされるというのには、多くの懸念があると思われます。
われわれ日本人も、太平洋戦争時の特攻隊兵士の残した遺書などを読めば、
さまざまに感じ、考えることがありますよね。
そういう話なのだと思いました。

がはははいいいいってrw