>  >  > 今すぐそこにあるロボット問題とは?

2014.10.02

 

 めざましい勢いで進歩を遂げるロボット工学の分野で、近い将来登場するであろう高度な自律型ロボットには、人間の子供と同じように倫理やモラルを植え込むべきなのだろうか。そして倫理規範を教え込まれたロボットは、どのようにモラルを遵守しながら命令に従い、職務を遂行するのか……。先頃行なわれた実験では、人命を守るようにプログラムされた“倫理的”ロボットは、憂慮すべきほどに優柔不断で「使えない」存在であることが判明したという。


■“倫理的”ロボットが優柔不断に

selfdriving1.JPG
Y! News」の記事より

 ロボットは人間を守り、人間の命令に服従し、その限りにおいて自己を防衛するというのが、往年のSF作家、アイザック・アシモフ氏が提唱した「ロボット三原則」だが、今回、英ブリストル大学で行なわれた研究のコンセプトは、この三原則のうちの第一条である「ロボットは人間に危害を加えてはならない。また、人間に迫り来る危険を見逃してはならない」という原則を検証することにあった。

 実験に使われたロボットは、他のロボットが床の指定領域(地面にあいた穴を想定)に入らないように監視と誘導を行うプログラミングを施された「救難ロボット」であったが、なんと実験開始後、ものの30分もしないうちに重大な問題点が発見されたのだ。

 2体のロボットが続けざまに穴に落ちそうになった際、この救難ロボットの動きが急に鈍ってしまったのだ。次にとるべき行動を決めるのに時間がかかり過ぎて、結局は2体とも穴に落ちてしまったということだ。

 

関連キーワード:

アイザック・アシモフ

モラル

ロボット

倫理

工学

自動運転

道徳

 この2体のロボットに危機が迫ったのは、全く同じタイミングではなかったという。「1体のロボットが穴に落ちそうになり、救難ロボットは救出に向かったが、次の瞬間、別の1体が穴に落ちそうになっていることにも気づいた。これで彼はうろたえてしまい、どちらも救助できないという最悪の結果を招いてしまった」と、ロボット工学研究者のアラン・ウィンフィールド氏は語る。

 つまりこの場合、2体のロボットが直面する危機をどちらも見逃せなかった救難ロボットは、その責任感の強さが仇となって混乱してしまったことになる。“倫理的な”救難ロボットは、今回のケースではまったく役立たずな存在に成り果ててしまったのだ。

ブリストル大学で行なわれた実験 動画は「YouTube」より


■人類はロボットと共に新時代へ

 現在、トヨタやグーグルなどが開発を進めているものに、自動車の「自動運転システム」があるが、今回の実験がこの自動運転システムの開発に少なからぬ影響を与えるかもしれないという。

selfdriving2.JPG
グーグルの「自動運転車(self-driving car)」 画像は「YouTube」より

 例えば、運転中の急ブレーキは1つの危険を回避したとしても、また別の事故を引き起こす原因になる可能性もある。このような二次被害が予測される状況下で、自動運転システムはどのような判断を下すのか? つまり、今回のブリストル大学の救難ロボットが陥った状況のような、“両立できないことについて判断を迫られた際の対応”が問題となってくるのだ。

 もちろん近い将来には、優先順位に従って判断を行なう複雑なプログラムが開発されることになるのだろうが、ロボットに何を「優先」させるのかの価値判断は、突き詰めれば倫理や道徳、人間観といったものをロボットに教え込むことになる。それと同時にプログラムを作る人間の側にも、これまでは曖昧にすることで摩擦や対立を避けてきた様々な社会道徳的問題についての価値判断を明確にすることが求められてくるに違いない。

 人手に代わってロボットに複雑な作業を課すほど、当然のことながら人間がロボットに価値判断を任せる割合も増してゆく。そしてロボットが下す判断が、場合によってまったく想定できないものになるケースも起り得るだろう。その際の責任の所在を明確にする法整備や、検証体制作りなども今後ますます必要になってくる。我々人類は、ロボットと共に、まったく新しい時代への門を既にくぐり抜けているのかもしれない。
 

参考:「Unexplained Mysteries」、「Y! News」ほか