今の自然言語処理で自然な会話ができない理由 | 熱脳しゃちょのブログ

熱脳しゃちょのブログ

おせっかい焼SE兼プログラマ兼……の辛い日々と、思う事なぞ

学習がNoContextである点。

会話中にContextを修正できない点。

 

前者は、説明文、会話文を無秩序にぶっ込んでいることと、文字にできない情報が全てOmitされているため。

後者は、人間で言えば相手の外観、場所、季節などから想定するContextを、「五感」と問いかけによって修正していくものだが、これができないため。

 

ここで簡単にContextと言ってしまっているが、会話当事者の遺伝要素(性別、気質)などの基底Contextや、生育環境、体験、期間のような積算的Context、その日会話が始まるまでの体験の(会話の進行なども)積み重ねであるTemporaryContext、場所、季節、天気、経済状況etc.etc.の環境Contextなど、これ、どうやってデータ化するんだ? というほど多岐にわたる。

つい最近まで、AIチャットに関わっていて、担当者たちは「すごいことやってる」感を出しているんだが、突っ込めば突っ込むほど、「弱いAI」とか「それには使えない」「まだできない」とか言い訳をごにょごにょと投げつけてきたものだ。

おいらが問題にしたのは、「今の技術の延長線上で実現可能だと考えているのか?」だったのだが。

 

 

少し前に流行ったAIチャット、ワトソンとかあったけど、なぜあれが「シャーロック」とか「ホームズ」とか「ジョブズ」とかじゃなかったのか?

「間抜けである(会話Contextを読み取れない)」ことを技術者たちは自覚していたんじゃないだろうか、と思う。

特に、りんなとか、「女子高校生」キャラだったのは興味深い。

「知ったかぶりしたり、誤魔化したり、社会常識がない反応をしても、反感を買わない」キャラが会話相手だ、と利用者が想定するContextに制約をかけていたわけだ。

もしこれが、男子高校生キャラだったり、男性会社員だったりした場合、利用者は必要以上にAIに低評価を下していただろう。

「馬鹿で生意気だ」と(裏を返せば、関係者、一般人が女子高校生をどう考えているかが浮かび上がってくるのだが)。

 

 

正直いうと、30年ほど前もそうだったが、自然言語処理の研究者とは相性が悪い。

おいらには態度がとても不誠実に見えるのだ。

その不誠実さが、研究費を確保するためにわざとやっているのか、考えが及んでいないからなのか、本当に理解できてないからなのかわからないが。

 

 

自然言語処理をざっくりやった後、「会話とは何ぞ?」「言葉とは何ぞ?」と考えこんだ過程で、小説書いて反応をもらったり、舞台の世界に飛び込んだりしたけど(そこまでやる研究者がいると聞いたことはない)、人間のように会話するには「育てられた人間の脳味噌の入った五感の揃った筐体(つまり人間)が必要」との結論に、今のところ達している。

 

 

ところで、利用中も学習し続けるAIとか、「すげー!?」とか思うかもしれないが、道具として利用する場合、個体ごとに個性が生まれたり(1台だけ、ならと思わないでもないが、故障時の代替機とか面倒だと思う)、再現性が無くなったり、盲点が生まれたりするのは面倒だ、とは思わないのだろうか?

特に学習Hackして致命的な結果を招来させうるのはかなり恐怖を覚える。

 

 

AIやっている人は90%とかでも「精度高ぇ」とかなるようだが、制御系で90%とか言われたら「……」となるわけで。

どうしても本筋でAIを利用しようと気になれず、警告(処理時間がかかりすぎてる)とかにしか使えない。

こまめにFeedbackかけて制御も考えなくはないけど、Panic時には当然切り離す。

AIはあくまでアシスタント(人間の盲点、気付きづらい部分へのパッチ)であり、オラクル(神託)ではない、と思う。