昨日2016年4月30日(土)は、GDG神戸主催の「Cloud Vision Api & Tensorflow勉強会」に参加してきた。

昼の12時~17時までの時間で、そのうち2時間はAndroid StudioでのCloud Visionハンズオン(Andoridを使って画像を撮って、その画像が何とか、人が何人いて、表情がどうなっているとか判定するアプリを作る)と、内容的には結構ハード。
持っていくMacBook AirにAndroid Studioをインストールするとか準備もそれなりに面倒だが、環境構築がそれなりに難易度高く、本来のCloud Vision APIの実感が薄くなってしまったのがちょっと残念。

ハンズオンだけでなく、講演もGoogleの方のCloud Vision APIやTensorFlowの最近の動向や、Googleの基幹技術であるGoogle Brainの話しは興味深く、GDG京都の方の(TensorFlowベースの)機械学習の基礎の話しはいろいろ参考になった。あと、趣味の画像判定サーバの話しは、結局できたのかどうかはわからなかったが、TensorFlowのプロセス実行の基本原理の話しもあり、TensorFlow使うと普通のプログラマがはまりそうな事を勉強させてもらった。

毎度の事ながら、機械学習やTensorFlowとか、新しい技術に興味を持っている人はそれなりに居るなって感じ。

ただ、IoTのLチカと一緒で、基礎がわかっても、その応用や、ビジネスに持っていくまでのウンチクは相当ギャップがあるのも実感。提供されたAPIだけだと、できることは皆一緒。
まぁ、そのための(自分でプログラムが書ける)TensorFlowだが、これで機械学習させるにも、学習させるデータを1万個ぐらいは用意しないといけないのも、普通の人が気軽に新しいモノを作れない障壁を生み出している(そういう意味で、某社の「機械学習に特化した学習用データ作成(人海戦術)お手伝いサービス」はいいところに目を付けている)。

少し気になったのが、機械学習させたらどんなデータからも傾向が出てくるみたいな錯覚があるのではと思った。そもそもエントロピー増大の方向に向かうデータも多く、機械学習が「マクスウェルの悪魔」にいつもなるとは思わない。やはり多くの場合、ゴミはゴミしかなくて、そこに傾向なんて無い可能性もあるというのをわからないと、錬金術みたいなことを期待する人達も出てくるだろう。

それと、やっぱり今のディープラーニング系の機械学習は、「事象分析のブルートフォースをやっているだけでしょう?」って思ったりもした。
まぁ、力尽くのやり方とか手法を否定はしないけど、時間の浪費をしてしまう可能性もあると思う。暗号アルゴリズムだってその組み合わせはわかった上で強度を測り、パスワード破りも、有効時間で解けそうな問題だけトライしているのも事実。決してめくら滅法やっている訳ではない。
そこをテクノロジーと読み違えると、他力本願、時間が解決するだけになってしまう。
ちゃんとその限界とか、やり方とかわかった上で、有限時間内でチャレンジしてだめだったら、さっさと次の方法に移るということも考えて行かないととんでもないことになる。

ターゲットと学習用データとセンスが、今後のビジネスを創っていくために必要だな。