今年に入り、にわかに「人工知能」という言葉を
TVなどでも耳にするようになりました。
インターネットを使わない世代でも聞いた事はある
と言われる人も増えてきました。
既にIoTもビッグデータという言葉も死語になるほどの勢いです。
丁度、私がその只中に置かれている状況です。
過去からずっと蓄積してきたデータそのものの活用について
ここ1〜2年の間議論されていますが正直膠着状態です。
というのも現在世の中に存在するデータは各システムやサーバに
別々に蓄積されているものが大半です。
(オンプレミスやイントラネットなど)セキュリティ等の制約で
企業はまだこちらに重きを置いています。
近年漸くクラウドという概念ができた為、事なる目的のデータでも
1箇所に集められるようになりました。
(インターネットを経由したオープンシステム)
ただ、それもほんの10年前の話なのでそれ以前の蓄積データは
散らばったまま。かき集めないかぎり同じ指標で分析する事が
できないのです。
人がネット上で入力する情報の他にもIoTに対応する製品から
送られるデータや街中の防犯カメラなどをはじめとしたクラウドに
蓄積されているビッグデータの活用は比較的安易です。
かたや各企業が抱えている問題は数十年以上も前から目的別に
作られた複数のシステムの中に存在するデータや
定年退職が近づいているパソコンが苦手なベテラン達の
頭の中にある知識のデータ化なのです。
企業では人工知能の導入も徐々に進んできていますが
どの会社でも「散在する過去データの壁」に阻まれています。
例えば、IBMが開発している「Watson」を導入するとして
一番どうにかしたい過去のデータを学習させようとしても
そのままでは使うことができず、Watsonの為に学習用の
データに全て作り変え集約する作業がまず必要になります。
過去何十年のデータを作り変えること自体、無理がある。
では、完全カスタムした別の人工知能で散在しているデータを
学習する事は不可能ではありませんが、やはりデータベース別に
解析が必要になるうえ、サーバ同士を認証させるなどの作業も
時間を費やし導入にはトータルで莫大な費用がかかります。
その為、現在「人工知能」と言われているものは一般的には
1つの目的に対し1つのカテゴリのデータだけを学習する
タイプか、他カテゴリのデータから近似データを拾うだけの
タイプのどちらかしか存在しません。
現在は後者の事を人工知能と呼んでいるようですが
ディープラーニングまでは行っておらず旧タイプと
言わざるを得ません。つまりまだ本当の「人工知能」とは
呼べないものなのです。
進化を遂げる鍵は過去のデータ解析をどのような方法で行うか。
この確立時期次第という事になります。
予定では2045年と言われていますがもう数年は早まるでしょう。
2006年以前のデータを捨てて新しいデータのみで行うのなら
そう先の話ではないかもしれません。
但しその場合、過去は全て葬り去るということですね。
過去を捨て新しいデータだけで世の中が進化していくほうが
断然楽ですが、果たしてそれで良いのでしょうか?
日本は開発に少し遅れを取っています。民間の予算だけでは
限界があります。どのくらい国家予算を投じるかが勝負の
分かれ目になると思います。
TVなどでも耳にするようになりました。
インターネットを使わない世代でも聞いた事はある
と言われる人も増えてきました。
既にIoTもビッグデータという言葉も死語になるほどの勢いです。
丁度、私がその只中に置かれている状況です。
過去からずっと蓄積してきたデータそのものの活用について
ここ1〜2年の間議論されていますが正直膠着状態です。
というのも現在世の中に存在するデータは各システムやサーバに
別々に蓄積されているものが大半です。
(オンプレミスやイントラネットなど)セキュリティ等の制約で
企業はまだこちらに重きを置いています。
近年漸くクラウドという概念ができた為、事なる目的のデータでも
1箇所に集められるようになりました。
(インターネットを経由したオープンシステム)
ただ、それもほんの10年前の話なのでそれ以前の蓄積データは
散らばったまま。かき集めないかぎり同じ指標で分析する事が
できないのです。
人がネット上で入力する情報の他にもIoTに対応する製品から
送られるデータや街中の防犯カメラなどをはじめとしたクラウドに
蓄積されているビッグデータの活用は比較的安易です。
かたや各企業が抱えている問題は数十年以上も前から目的別に
作られた複数のシステムの中に存在するデータや
定年退職が近づいているパソコンが苦手なベテラン達の
頭の中にある知識のデータ化なのです。
企業では人工知能の導入も徐々に進んできていますが
どの会社でも「散在する過去データの壁」に阻まれています。
例えば、IBMが開発している「Watson」を導入するとして
一番どうにかしたい過去のデータを学習させようとしても
そのままでは使うことができず、Watsonの為に学習用の
データに全て作り変え集約する作業がまず必要になります。
過去何十年のデータを作り変えること自体、無理がある。
では、完全カスタムした別の人工知能で散在しているデータを
学習する事は不可能ではありませんが、やはりデータベース別に
解析が必要になるうえ、サーバ同士を認証させるなどの作業も
時間を費やし導入にはトータルで莫大な費用がかかります。
その為、現在「人工知能」と言われているものは一般的には
1つの目的に対し1つのカテゴリのデータだけを学習する
タイプか、他カテゴリのデータから近似データを拾うだけの
タイプのどちらかしか存在しません。
現在は後者の事を人工知能と呼んでいるようですが
ディープラーニングまでは行っておらず旧タイプと
言わざるを得ません。つまりまだ本当の「人工知能」とは
呼べないものなのです。
進化を遂げる鍵は過去のデータ解析をどのような方法で行うか。
この確立時期次第という事になります。
予定では2045年と言われていますがもう数年は早まるでしょう。
2006年以前のデータを捨てて新しいデータのみで行うのなら
そう先の話ではないかもしれません。
但しその場合、過去は全て葬り去るということですね。
過去を捨て新しいデータだけで世の中が進化していくほうが
断然楽ですが、果たしてそれで良いのでしょうか?
日本は開発に少し遅れを取っています。民間の予算だけでは
限界があります。どのくらい国家予算を投じるかが勝負の
分かれ目になると思います。