「人工知能は人間を越えるか」等、マスコミが取り上げているが、人工知能の性能が上がっても、何でもしてくれるわけではない。人工知能では明らかに出来ないことがある。それは、それは責任を取ることだ。
(当たり前のことだからか、あまり話題にならないし、鉄腕アトムの影響からか、あまり意識されてない。)

それは自動車の自動運転を考えれば分かる。人工知能が発達して運転手の負担が減るようになっても、又、より安全に運転できるようになっても、事故が起これば運転手の責任になる。車メーカーが責任をとることは絶対ない。自動車保険付の人工知能を使ったとしても、民事訴訟は凌げても刑事責任は免れ得ない。これは人工知能すなわちコンピュータは人間にとって道具でしかないからだ。責任はその道具を使った人にある。

軍事用無人攻撃機の場合、映像を人間が見てロケット弾を発射するか決めている(と聞いている)。しかし、それだと無線を妨害されると使い物にならないので、できれば指示されなくても攻撃機に搭載した人工知能が判断して発射したいという軍事的圧力は強い。しかし、この一線を越えるとコンピュータが人を殺す世界に入ってしまう。

このように人工知能に何でも任せるわけにはいかないので、任せられる範囲は自ずと限定される。人間が判断できるような境界条件の範囲ということになるだろう。(人工知能の応用を考える上で考慮されていると思うが。)

b31802