現在はディープラーニングで画像を学習させて、入力した画像がなんであるかということが正確に出力されるにはどうすればいいのか勉強している。まだどうすれば正確になるかのアプローチは見つかっていないが、間違えやすい画像の特徴を考え別のアルゴリズムにすることも考えている。
華を学習させて、学習とは別のデータを入力したときに適切な出力をするようにはどうすべきかを考えている。20種類の花を200枚学習させたが、やはり同時に学習させる華の種類が増えると正確性は落ちてしまう。最初は3種類でやったのでそう感じた。確かに1種類だけ学習させたら、どんな画像を入力しようが出力は100%学習させたものの名前が出力される。少なければ少ないほどいい。だが同時に学習させるものが苦手な場合、例えば20種類同時に学習させて、それから学習とは別のバラを入力したが、出力はひまわりとなってしまった。こんな時2種類まで学習させる華を減らしても同時にするのがバラの苦手なヒマワリとしてしまったら精度は落ちる。
巷には花の画像を人工知能が判別して出力してくれるというアプリケーションがある。私はこれにたんぽぽを入力したが、アプリが様々な花に対応しすぎて9種類の候補が出力され、正確なたんぽぽと返ってこなかった。確かに巷に出すアプリケーションは有名な花ばかり載せていても意味がないので、皆が知らないような花を調べるために無名のものも載せなければならない。膨大なデータを学習させるのはとても大変である。
今は花でやっているが、これをやり切ったなと思ったら果物とか、動物とかも識別できるようにしたい。また同時に学習させるものが花と動物、動物と果物といった人間は別のくくりと学習しているものが実はコンピュータには学習しやすかったということがあるのだろうかということも追及していきたい。