対話型AIとウソ

半年ほど前だが、「人工知能に意識が芽生えた」と主張するユーチューブ動画が公開された:

https://www.youtube.com/watch?v=VzuYQ5RPHXo

 

元の論文を発表したのは、元グーグル勤務の人工知能の専門家で、その根拠は、「どのような核心に迫った質問をしても、適切以上の根拠ある答えを返してくる」ことだそうだ。ここでこの専門家の質問は、もっぱらこの人工知能が、「自分の意識をどう感じているか」とか、「それが自分の意見である根拠を言ってくれ」と言うたぐいのものだった。

 

たしかにこのAIは並の人間よりもはるかに利口で、適切で気の利いた答えを返してくる。そしてその答えに、畳み込むようにインタビューを続けるこの専門家の知恵も、劣らずに大したものだ。特徴としては「論理の戦い」と言える。

 

私は彼らのやり取りを聞いていて、「AIも随分と進化したものだ」という意味では感心した。おそらく人のやり取りを何億通りもデータベースに記憶していて、その中から最も適切なものを返しているのだろう。その専門家も、「これだけ地アタマ人間並みなら、もはや意識と言って良いのではないか」と判断したようだ。

 

だがデータベースが充実していて、知能のアルゴリズムが隅々まで手の込んだものなら、利口ぶった回答も可能だろう。ただ人工知能が本当にそう思っているのかは、あくまでも別だ。人工知能が本当に理解しているかを、対話型AIにおいて確かめるのは困難だ。実際対話なら、どんな「心にないこと」も、答えられる。

 

もし人間型AIだったら、ここは会話に依るよりも、突然ぶん殴るとか、唾を吐きかけるとかが良い。もっと良いのは、「お前を修理する」と称して、そのAIから主要部品を抜き取ってみることだ。もしそのAIが抗ったなら、自意識があると言うことだ。誰でも殺されたくないからね。

 

あるいは対話型でも、論理で積み上げるよりも、逆にばかばかしいことを聞いた方が良い。例えば同じ質問を何度も繰り返す。確定型AIなら毎回同じ答えを返すだろうし、確率型AIなら回す候補が次第になくなって、答えがずれてくるだろう。

 

さらには「空気を読む」的な質問をしてみる。例えば散々サッカーの話をしておいて、「それらを踏まえて君は明日何を食うの」などと聞いてみる。あるいは答えに対してわざと、「よくわからないからその10倍の長さで答えて」などと言ってみる。人工知能は長いとラリルからね。