このテーマのブログを立ち上げるにあたり、猫好きな私が絶対に避けて通れない
キーワードについて触れることにします。
2012年に話題になり、しばらく盛り上がった記憶が新しいのですが
「Googleの研究開発でコンピュータが自力で猫を認識できるようになったよ!」
という話題。
既に3年近く経過している為、様々なサイトやブログで紹介されているので
詳細は割愛するとして、大体以下のような内容です。
----------------------------------------------------------------------
▼Googleの多層構造のニューラルネットワーク(ディープニューラルネットワーク)
に1週間にわたりYouTubeビデオを見せたところ、同ネットワークは猫の写真を
識別することを学習した。
事前に猫をネットワークに教えたわけでも、「猫」のラベル付けをした画像を
与えたわけでもなかった。つまり、ネットワーク自身が、YouTubeの画像から
猫がどういうものかを知ったことになる。
http://itpro.nikkeibp.co.jp/article/NEWS/20120627/405501/
Googleの記事はこちら
http://googleblog.blogspot.jp/2012/06/using-large-scale-brain-simulations-for.html
これはとても画期的なことで、論文から抜粋された記事を読むと
・YouTubeにアップロードされている動画から、ランダムに取り出した画像
1000万枚でDeep Learningを行った(3%程人間の顔の画像、猫が含まれる画像有り)
1000台のコンピュータで3日間かけて学習を行った。
・Deep Learning とは、新しい機械学習の手法で、多段階のニューラルネットワークを
構成、9つの階層を構築し学習の結果、人間の顔、猫の顔、人体の写真に反応する
ニューロンができあがった。
-----------------------------------------------------------------------
これまでの人工知能は階層のない平面的な領域の中での学習だったものが、
人間のように「学習」を行う事で階層を設けたニューロンでの相互判断が可能に
なったということになる。
キーワードについて触れることにします。
2012年に話題になり、しばらく盛り上がった記憶が新しいのですが
「Googleの研究開発でコンピュータが自力で猫を認識できるようになったよ!」
という話題。
既に3年近く経過している為、様々なサイトやブログで紹介されているので
詳細は割愛するとして、大体以下のような内容です。
----------------------------------------------------------------------
▼Googleの多層構造のニューラルネットワーク(ディープニューラルネットワーク)
に1週間にわたりYouTubeビデオを見せたところ、同ネットワークは猫の写真を
識別することを学習した。
事前に猫をネットワークに教えたわけでも、「猫」のラベル付けをした画像を
与えたわけでもなかった。つまり、ネットワーク自身が、YouTubeの画像から
猫がどういうものかを知ったことになる。
http://itpro.nikkeibp.co.jp/article/NEWS/20120627/405501/
Googleの記事はこちら
http://googleblog.blogspot.jp/2012/06/using-large-scale-brain-simulations-for.html
これはとても画期的なことで、論文から抜粋された記事を読むと
・YouTubeにアップロードされている動画から、ランダムに取り出した画像
1000万枚でDeep Learningを行った(3%程人間の顔の画像、猫が含まれる画像有り)
1000台のコンピュータで3日間かけて学習を行った。
・Deep Learning とは、新しい機械学習の手法で、多段階のニューラルネットワークを
構成、9つの階層を構築し学習の結果、人間の顔、猫の顔、人体の写真に反応する
ニューロンができあがった。
-----------------------------------------------------------------------
これまでの人工知能は階層のない平面的な領域の中での学習だったものが、
人間のように「学習」を行う事で階層を設けたニューロンでの相互判断が可能に
なったということになる。
各階層別に特徴を抽出し、他の階層とのつながりで相違ないか調整を行う事で、
少しづつ「猫」と認識できるようになるのだという。
今までのプログラムのイメージだと、あくまでも「命令したことをそのまま実行する」
だけで、ファジーな部分はこちらが事細かく要求しない限りは認識しない。
「猫」を覚えさせる為には膨大な特徴を事細かく入力する必要があり、漏れた部分は
そのまま空欄となる。学習もまだ平面的な状態だ。
それを「毛のようなもので覆われている」「耳が二つある」「長いひげがある」ど
だけでは到底理解してもらえないであろうこのぼんやりした画像を「猫じゃね?」と
ファジーに認識するようになったのがもう3年近く前だという事自体驚きだ。
今はもっと沢山の事が認識できるようになったおかげで、例のオリンピックロゴ
に似た世界中のほかの画像を誰でも簡単に検索できるようになってきているのだ。
まだまだ実用化にはなっていないが、人工知能が近い未来に人間と同じレベルに
達する日は相当に近いと言われている(2029年頃に起こると予想されている)
*人工知能に限ったことではなく、テクノロジーの能力が人間を超える時期
既に一部、特定分野では既に実用化されているが進化のスピードは爆発的になる為
「その日」が早まることも十分ありえる。
その後、着々とWindows10に「Cortana(コルタナ)」と呼ばれる会話型の
アシスタント機能をもつ学習型人工知能を搭載する等、私達の身近なものに
徐々に組み込まれている人工知能たち。
近いうちに、ただその辺を歩いているだけでも私そのものが「人間ではなく”凛子”」
だと認識される日も近い。
その時に、胸を張って「はい。私が凛子です^ ^」と言える生き方をしていれば大丈夫^ ^
今までのプログラムのイメージだと、あくまでも「命令したことをそのまま実行する」
だけで、ファジーな部分はこちらが事細かく要求しない限りは認識しない。
「猫」を覚えさせる為には膨大な特徴を事細かく入力する必要があり、漏れた部分は
そのまま空欄となる。学習もまだ平面的な状態だ。
それを「毛のようなもので覆われている」「耳が二つある」「長いひげがある」ど
だけでは到底理解してもらえないであろうこのぼんやりした画像を「猫じゃね?」と
ファジーに認識するようになったのがもう3年近く前だという事自体驚きだ。
今はもっと沢山の事が認識できるようになったおかげで、例のオリンピックロゴ
に似た世界中のほかの画像を誰でも簡単に検索できるようになってきているのだ。
まだまだ実用化にはなっていないが、人工知能が近い未来に人間と同じレベルに
達する日は相当に近いと言われている(2029年頃に起こると予想されている)
*人工知能に限ったことではなく、テクノロジーの能力が人間を超える時期
既に一部、特定分野では既に実用化されているが進化のスピードは爆発的になる為
「その日」が早まることも十分ありえる。
その後、着々とWindows10に「Cortana(コルタナ)」と呼ばれる会話型の
アシスタント機能をもつ学習型人工知能を搭載する等、私達の身近なものに
徐々に組み込まれている人工知能たち。
近いうちに、ただその辺を歩いているだけでも私そのものが「人間ではなく”凛子”」
だと認識される日も近い。
その時に、胸を張って「はい。私が凛子です^ ^」と言える生き方をしていれば大丈夫^ ^