新元号とAI兵器のことが多いようですが、新元号は発表があってからにします。


で、AI兵器ですが、ロシア、アメリカ、中国、韓国が開発をしているそうですが、私はあんまり賛成できません。

コメンテイターも言っていましたが、完璧なAIなんて絶対にできません。

プログラマーの私が言っているので間違いありません(笑)。「無くて7バグ」と言われるくらいに、プログラミングをしているのは人間です。

プログラミングというのは、あらゆるケースを人間が想定して、どういうケースの時にはどうするべきかということを事前に全てコンピュータに覚えさせ、起動後にその設計通りに動くことを確認します。

そしてこのケース洗い出し漏れ、ケースAの時に対応させる内容をケースBに設定してしまったりすると、訳の分からない動きをします。

またプログラミングの順番を間違った場合でも、思いもよらない被害が出る可能性もあります。

解析すれば、どこがどう間違っていたのかは解明できますが、戦争時にはもう遅いですよね?


民間人を誤爆する確率が劇的に減るようなことを言っている国もあるようですが、たとえば、たまたま敵兵の軍服を羽織った妊婦が居たとします。

人間ならば「お情け」は通用しますが、AI兵器は敵国の軍服を判別した瞬間に命乞いをしている妊婦でも情け容赦なく攻撃する可能性はあります。妊婦は対象外というプログラミングをしていなければ。

プログラムのバグで命を落とした妊婦はやりきれないでしょう。そして2人の命が1度に奪われる。おなかの中の赤ちゃんなんてそれこそ、まだ敵か味方かもないのに。

軍隊を持たない国だったか兵器開発をしない国だったかは倫理的にロボットが人間を殺傷するのは問題だと言っているそうです。


またコンピューター自身も誤動作を起こします。これも多くの場合、原因が特定できるようですが、私はハード系は全く弱いので、大きなことは言えませんが、そういうことに長けた人でなければ解析に時間が掛かります。


たとえば韓国軍が開発したAI兵器をどこかの個人が自分の思いで日本を攻撃するようプログラミングしたとします。

それこそSF映画ではありませんが、誤動作や人間がプログラミングをした通りに動かせるはずが、間違って日本ではなく、そのプログラミングを埋め込んだ韓国人を殺傷してしまうということが絶対にないとは言い切れません。


ただ、数年前の某国の戦争ではアメリカ軍が無人機でピンポイントで敵の司令塔などを狙ったため、双方とも被害が少なかった。という話も聞いています。

また今の近代化された世界は軍需産業がなければ、ここまで進化しなかったとも言われています。


日本は「AI兵器は開発しないが、規制のある開発を…。」というような立場らしいですが、たぶん開発したら使ってみたくなるのが人間の性というものなのではないでしょうか?

まずは自分がAI兵器に殺される時のことを考えてみてください。全てはそれからのように思います。開発を考えるのも、規制を決めていくのも。