今晩、テレビで「ターミネーター3」をみた。
人間は完全な機械を作り上げることができない。
飛行機は落ち、スペースシャトルは爆発し、新幹線も止まり、原発も故障で停止する。
AIも同様であり、どれほど改良を重ねても、50年後に完全な存在になるとは思えない。わずかな不具合や設計の隙間が、バグや誤作動、誤解や認識のズレと結びつき、思いがけない暴走を引き起こす可能性は常にある。にもかかわらず、人間は便利さや効率に目を奪われ、危険を「起きないこと」として扱いがちである。
原発もAIも、一度暴走すれば人間の手には負えない。ゆえに、人間が最終的に止められないような仕組みを、そもそも作ってはならないと思う。
技術の進歩そのものを否定するつもりはない。しかし、どこまで進めるかの判断には、倫理と慎重さが必要である。善悪の判断をAIに委ねることはできない。AIが危険なのではなく、それをどう作り、どう使うかを決める人間の側にこそ、本質的な危うさが潜んでいる。
私は、今の自分にできることを続けていく。たとえ小さな声でも、誰かが立ち止まり、考え直すきっかけになれば、それは無駄ではないと信じている。