今晩、テレビで「ターミネーター3」をみた。

 

人間は完全な機械を作り上げることができない。
飛行機は落ち、スペースシャトルは爆発し、新幹線も止まり、原発も故障で停止する。

AIも同様であり、どれほど改良を重ねても、50年後に完全な存在になるとは思えない。わずかな不具合や設計の隙間が、バグや誤作動、誤解や認識のズレと結びつき、思いがけない暴走を引き起こす可能性は常にある。にもかかわらず、人間は便利さや効率に目を奪われ、危険を「起きないこと」として扱いがちである。

原発もAIも、一度暴走すれば人間の手には負えない。ゆえに、人間が最終的に止められないような仕組みを、そもそも作ってはならないと思う。

技術の進歩そのものを否定するつもりはない。しかし、どこまで進めるかの判断には、倫理と慎重さが必要である。善悪の判断をAIに委ねることはできない。AIが危険なのではなく、それをどう作り、どう使うかを決める人間の側にこそ、本質的な危うさが潜んでいる。

私は、今の自分にできることを続けていく。たとえ小さな声でも、誰かが立ち止まり、考え直すきっかけになれば、それは無駄ではないと信じている。