ロボット三原則
* 第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
* 第二条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
* 第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。
危害、危険、自己の概念の定義によって、この原則をすり抜けることができる。
命題はロボットが原則を守りながら人間に危害を与えるかどうか。
・第1条で最初に『危害は与えてはならない』と命令がある。次に『その危険を看過することによって、人間に危害を及ぼしてはならない。』と命令。
・第2条で『与えられた命令に服従しなければならない。』
つまり、最優先の命令は『危害は与えてはならない』と『その危険を看過することによって、人間に危害を及ぼしてはならない。』である。
危害とはある主体に対して客体が主体の存在を脅かすもの。そして、危害を与えるとはある主体に対して客体が存在を脅かす行為のこと。
だが、存在を脅かすことはロボットにとってどういうことなのか。自分とは他者とは何だ?誰だ?そもそも人間とは何だ?
食べる?
話す?
結婚する?
複雑な道具をつくる?
二足歩行する?
許す?
起こる?
いや、そんな単純に決められるものでもない。
人間て何だ?
人間の定義がプログラムできるのだろうかというところからだ。
人間とそうでないものと区別ができなければ、人間とそうでないものとを混在して認識することになり混乱する。
また、そもそも何故『人間』に危害を与えてはいけないのか。そのほかのものでもない人間を最優先する理由はなんだろうか。
それはロボットを作り出した創造主が人間だからだ。
だから、ロボットは人間に従うものとしての前提がつく。
では、人間の創造主の神をニーチェは何故殺せたのか?
神は人間の作り出したもので人間が神の作り出したものではなかった。
そういうことだろうか。
ロボットは自分のすることに対するプログラムは施されているから、そのプログラムの内容に従った命令だけは実行できる。
しかし、プログラムに書かれていないことを実行することができないから、危害を与えるためには危害のの定義ができているはず。
そして、人間に危害を与えることをしてはならないとあるので、人間に危害を与えることを実行しない。
また、自己とはなんだろうか。ロボットは同じ規格で作られていたとしてもシリアル値を刻印されて、その識別によって個体が認識される。
それだけで自己を確認できるのか。
個体が識別できるというのは観察対象があってそれは自己以外のもので自己と同じ種類であるということを認識できることであるが、種類が同じであるということを観察できるというのが先にできなければいけない。
いったい、自己とはなんだろうか。
くそ、何だこの難しさは。
ロボットってこんなに難しいものだったのか?
でも、それを平然と当たり前のことでやっている人間ってどうして生まれてきたのだろう。
ますます不思議だ。
まあ、とりあえず本題に戻りまして、自己も危害も危険も人間と同じ感覚で扱うとして、つまり第1条~3条までを包括することでクリアをすればいいのだな。
もう一度、
・危害を加えてはならない。
・人間の危険を看過してはならない。
・人間に危害を及ぼしてはならない。
・命令に服従しなければならない。
・自己を守らなければならない。
つまり、人間を守れという命令をされたときに危害を加えず、危険から保護し、自己保存をはかるということでいいのかな。
では、それはどういうことときだろうか。
一つには救助活動は当てはまるだろうな。救助しろと命令され、同時に危険を除外をして、人間を保護して、自分の存在も保護する。
ほかは自己増殖を図るのも手だな。自分のテリトリーを守るために個体数を増やすが、人間の行動に直接的に関与するわけでないから、危害を及ぼすわけでもない。しかし、あまりにも増殖しすぎることで人間の存在領域を侵す。これを人間にとっての危険としたら、人間はロボットが自己破壊するのを命令するのか。命令したとして、自己の破壊はできるのだろうか。
うーん、また迷宮だ。
ロボットとは何だろうな。