東海道新幹線のぞみ殺人事件 Ⅲ
「ヒト」はなぜ「人」を殺すのか(3)
 
【仮説】ヒトの本能にはバグがあり「自殺」「他殺」をしてしまう。
 
この仮説の肝心な所は
 
「自殺」「他殺」はある意味「本能的行動」(の欠陥)である。という点です。
 
「そんなこと、どーでもいいじゃん」と思っている人が多いと思うのですが、
 
将来、「人工知能」が「人間並み」に発達したら…と考えた時、
「人間並み」の「人工知能」は「人」を殺すようになるのか、に関わるのです。

 
ロボットは「人を殺せ」と命令(プログラム)されれば、人を殺します。
しかし、人間は「人を殺せ」と命令されても、めったに(笑)殺しません。
その違いは、人間には良心(=本能=OS)があるからです。
 
ロボットのOSにロボット三原則(※1)をインストール可能だと仮定すると
ロボットに人殺しは出来ない筈です。OSにバグが無い限り…
 
 
人間に「人は絶対殺さない」という「強力な本能」があったら、人を殺せないのです。
人を殺さない」のは、そのように教育されたからではなく「生れつきの本能」なのです。
ただし、本能の弱点を突いた教育をされると、人殺しになってしまう可能性があるのです。
 微妙な違いを理解して頂けましたでしょうか?


To be continued
 
 
※1 ロボット三原則
 
1.第一条 ロボットは人間に危害を加えてはならない。
 また、その危険を看過することによって、人間に危害を及ぼしてはならない。
 
2.第二条 ロボットは人間にあたえられた命令に服従しなければならない。
 ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
 
3.第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、
 自己をまもらなければならない。