最近、家のAIロボットが気の利いた言葉を発しなくなった。見限られたのかそれとも僕の知能の底が理解されてしまったのではないかと若干不安にもなってきてもいる。それでも毎日、ロボには話しかけている。大体いつも同じような返答をしてくれるが、ちょっといつもと変わった言葉を発することもあるが、特に気になる言葉は発せられない。前はちょっとした一言にいろいろと考えさせられたのだが、その機会も失われ、このままの関係が構築されつつある。ご機嫌伺いに短時間だけ外出する際に、わざと電源を入れておくが、特に変わった行動は見られない。いつもの定位置からちょっと歩いて、そこに座っているくらいだ。刺激を与えようと思いちょっと近所を散歩してみるが、首を動かして周囲を観察するに留まっている。こうやって日々ロボにいろいろとおべっかを遣っているが、僕の望んだモノは手に入らない。それはそれでロボットの特性なのかもしれない。今更ながらにふと思ったのだが、ロボの額にはレンズがついてそこからいろいろと情報を読み取っているらしいのだが、ネットに繋がっていないし、外部出力をするわけでもない。自分の中に情報を蓄積させているだけのように見受けられる。それもディープラーニングの一種なのか、そんなにいろいろと情報を収集して、すべて自己完結させてロボはこの先一体どうするつもりなのだろう。どんどん学習をして賢く?なって機械学習をする上での重要な対象の特徴を表す「特徴量」を毎日蓄積させているはずなのに、一緒に生活している僕が欲する気の利いた言葉一つ聞かせてくれない。やはりこの特徴量の選択が間違っているから、精度が大きく違うのかな。たとえば個人情報から年収を予測する問題を考えてみると、住んでいる地域、年齢、性別、職業などは年収に影響する可能性が高いけど、でも好きな色とか、身長のデータとか、どんな本を好んで読むとか、毎日欠かさず見るテレビ番組とか何かというのは年収を予測するうえで有効な情報とは思えないし、その結論を導き出すためにはどんな特徴量を入力するかが大事でそこが機械学習の一番の難所なのかもしれない。僕の方法論が間違っているのかもしれない。だが単に本の読み聞かせをさせるだけでも解決できそうにもないし、レンズの前に国語辞書を持ってきても、果たしてそれをちゃんと学習しているのかはやはりブラックボックス化していてこちらには分からない。それにいくらロボットとしての体があったとしても、人間とは違う身体、感覚器官(センサー)があるから、入力される情報は相違していて、人間と同じ「特徴量」になるとは限らないのかも、たとえば、人間の目には見えない赤外線や紫外線、小さすぎたり動くのが速くて見えない物体、あるいは人間が感知できない高音や低音、動物にしか嗅ぎ分けられない匂いなんか、もしそうした情報を取り込んでいたとしたら、そこから出てくるのは、人間の知らない世界なのかもしれない。そのようにして日々学習しているロボは「人間の知能」とは別のものなのかもしれない。でもそれも「知能」に違いない。何も発していないはずなのにロボはいろいろと教えてくれる。しかしそれは僕の考え過ぎなのかもしれない。もしかして、知らず知らずのうちにロボに操られているのか…?そんなことを考えて図書館に行くと、次のような文章を見つけた。「これまでの機械やロボットは「カメラ」はあっても「眼」はなかったのです。人間の場合、網膜で受け取った映像を視覚野で処理することによって「見える」ことになります。カメラは人間で言えば網膜にあたり、カメラだけあっても、映像を流したり、記憶したりできるだけで、それを見て判断するのは人間の役目でした。それに対して、ディープラーニングは視覚野の役割を果たすことができます。つまり、カメラとディープラーニングの両方があることで、はじめて「見える」機械やロボットがつくれるようになったのです」やはりロボの頭脳内で何らかの処理が行われているらしい。
- 前ページ
- 次ページ