タイトルが絶賛中のアレにかぶっているので申し訳ありませんが、釣りではありません。
人というのは”立場が違(たが)えば、判断も変わる”のは生きている中で何となくわかる部分だと思います。
最良の判断というのはどこにあるのだろう?
そんな答えのない問題で有名なのが「トロッコ問題」なのかなって思います。
トロッコ問題とは…
暴走トロッコが向かう先に5人の人間がいる。
このままだと5人は亡くなるが、自分の目の前に進行を切り替えるスイッチがある。
そのスイッチを切り替えると、その先にいる1人が亡くなる。
この6人とはお互いに面識がない関係だが、スイッチは切りかえるべきか?!
子供らが妻のアイパッドのAIに「うんち」「あほー」『そんなことを言わないでください』とやり取りを遊んでいたので、僕はこのいじわるな問題を聞いてみました。
『回答を差し控えさせて頂きます』
みたいなことを言ってました。AIなりの判断はあるのでしょうが、禁句なのかもしれませんね。
大体の人が”どちらかしか選べない”判断として、5人を救うを選び、その理由がより多くの命を守ることができるからという多分正しい答えなのだろうと思います。
でも選ばれた1人は亡くなってもいい理由なんてある?
犠牲者の家族は、取った行動を許すと思う?
残った5人が悪い連中でこの人がいい人だったら?
とたたみかけてみると…とたん迷う。命は数で優劣が決まることができない代えがない大事なもので、”表と裏・外と内”主観に置くものの見方で変わってしまいます。
次世代の乗り物が自動運転となった時は、AIの判断にゆだねることが多くなってくるのでしょう。
その時、
”車の脳という使命”を持って運転者や同乗者の「命」を守るのか?
”車の脳という使命”を持って歩行者や対向車の「命」を守るのか?
数や被害の規模で決断をとる場合、バスと乗用車では同乗者の「命」の数は違うし地方と都会では利用者の年齢も異なるけど、”車の脳という使命”は時々で変わるのか?変わっていいものなのか?
様々な序列・葛藤・矛盾を大多数の人が納得できる判断を探すことを人は放棄してもいいのか?
技術よりも難しい、考えても答えられない問題があるので、その答えが導けたときAIはヒトを超えるのかもしれないなーって思います。そうなれば法律もAIが造り、AIが人を裁く時代になるかもしれないですね。新たな神として…SFみたいでちょっと怖いですね(><
ヒトがとっさの判断で選ぶことにいちゃもんをつけたら誰も何もできなくなるので、この選択問題はなくていい気がします。
こんな水かけ論よりは3番目の、4番目の選択肢を考える方が建設的だし、AIは2つの答えに良策がないのを知っているから『回答をしない』というのかもしれないですね。
まだ早いと思っている自動運転の時代が、すぐそこに来ているという文明の進化の速さには驚いています(^^;