東海道新幹線のぞみ殺人事件 Ⅲ
「ヒト」はなぜ「人」を殺すのか(3)
【仮説】ヒトの本能にはバグがあり「自殺」「他殺」をしてしまう。
この仮説の肝心な所は
「自殺」「他殺」はある意味「本能的行動」(の欠陥)である。という点です。
「そんなこと、どーでもいいじゃん」と思っている人が多いと思うのですが、
将来、「人工知能」が「人間並み」に発達したら…と考えた時、
「人間並み」の「人工知能」は「人」を殺すようになるのか、に関わるのです。
ロボットは「人を殺せ」と命令(プログラム)されれば、人を殺します。
しかし、人間は「人を殺せ」と命令されても、めったに(笑)殺しません。
その違いは、人間には良心(=本能=OS)があるからです。
ロボットのOSにロボット三原則(※1)をインストール可能だと仮定すると
ロボットに人殺しは出来ない筈です。OSにバグが無い限り…
人間に「人は絶対殺さない」という「強力な本能」があったら、人を殺せないのです。
「人を殺さない」のは、そのように教育されたからではなく「生れつきの本能」なのです。
ただし、本能の弱点を突いた教育をされると、人殺しになってしまう可能性があるのです。
微妙な違いを理解して頂けましたでしょうか?
To be continued
※1 ロボット三原則
1.第一条 ロボットは人間に危害を加えてはならない。
また、その危険を看過することによって、人間に危害を及ぼしてはならない。
2.第二条 ロボットは人間にあたえられた命令に服従しなければならない。
ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
3.第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、
自己をまもらなければならない。