先日、東大で開催された先端人工知能学寄附講座を聴講してきました。松尾先生の「たゆたうシンボル」という話と、早大の尾形さんの「深層学習による動作と言語の統合学習」が興味深いものでした。
松尾先生の講演の冒頭で、NVIDIA社がCES2018で披露したデモが紹介されました。NVIDIAのGPUを用いて学習したAIを搭載した自動車が、公道を自動運転しているのですが、これはどうやって学習させたのかが次に紹介されます。
ディープラーニングではより多くの画像をデータとして与え利口にしてゆかなくてはなりませんが、実際に撮影した画像データだけでは十分ではないということで、なんとシミュレータの画面データを作りそれを学習データとして入力している。
シミュレータ画面と言っても、実際の撮像データベースに作っているものなので、現物の画面とシミュレータ画面を左右に並べて見せるデモもありましたが、どっちがシミュレータか容易にわかりません。
シミュレータでは、逆光を付加したり、夜にしたり、対向車を登場させ粉塵を巻き上げさせる、などもできますので、こういう環境情報を意図的に追加して、AIに入力してゆけば、様々なデータを撮影データに依存させることなく効率よく学習させられるわけです。
松尾先生の話は、こういう最近の動向に触れた後で、どのようにAIに予測の能力をつけてゆくかになりました。学習とは簡略化することであり、一度学習したものをより小規模のNNに覚えさせ、より高次のシンボルに関係付けてゆくことで、人工知能に”概念”を持たせることができるようになるだろう ということでした。
尾形先生の講義は、模倣予測学習と言って、ロボットに色々な条件下で成功体験を積ませ、実時間で先を予想できるような仕組みを作るというもの。
画像を見ながら学習するのですが、それと同時に、その先を予測させ、その予測画像も同時に表示するデモもありました。
すごく進んでいるように思えますが、それでも日本のAI研究は欧米、中国に大きく差をつけられていて、こうした先端部分の研究は、周回遅れと言われていますので、優秀な人たちにはなんとか頑張ってもらいたい。

