ジレンマ

自動運転の開発が加速されている。人工知能には倫理的な問題の判断基準をどう(設定?)すればいいかを考えよう。

 

自動運転式車は2020年に東京オリンピック前後デビューされるそうだ。残り時間わずか。先の問題は極めて現実味を持って我々の前に出てきた。世界的に有名な雑誌「サインス」には「自動運転の社会的窮状」をタイトルにした記事があった:

「命で命を救う」問題が発生する場合、「功利主義」的な選択法をとるとの結論だった。つまり、多数選択肢から少しても「効率」あるものを選ぶ。例えば、一人を救うより多数を救った方が効率がよい、成人や男性より子供や女性を救う方が効率がよいとか。少々納得できなくても常識として殆どの人の心の中で採用されているようだ。

 

百年程前から出されてきた「電車問題」があった。「走る電車が制御不能になり、五人死なせて電車を止めるか、一人を死なせて電車を止めるか」という極端的な質問だった。以来、問題を答えようとする人が無数いるが、公認される正解がなかった。まさにこんな時、運転手がロボットに置き換えられたら、どうなるのでしょうか?

 

研究の結果、前述のような「功利主義」を基準にした、問題解決策をプログラムにして、ロボットに植え込み、模擬問題を解決してもらって人間の反応を見ると、人間には「非常に不愉快」にまでさせなかったそうだ。つまり人間が運転する時代での「功利主義」的判断基準をロボットに同じく植え込めば人間は納得できるようだ。

 

人間からロボットに切り替えて運転してしまうと、「そのマシンが何を基準にして安全運転しているのか」については、経済学からの答えは: 「それは車の生産コストを合理範囲に抑えた前提の下で、可能な限り危険性をさげるのだ」。つまり乗客を殺す可能性もあり、歩行者や周りの人を殺す可能性もあるということで、100%の安全は不可能であることをほどほど認めておこう。残りはその人が運が悪いとか、保険でリスクを最小限にしようということになる。

 

倫理学と経済学もジレンマのようだ。