ヤッパくんです。
IT営業を行ううえで、近年注目しまくりのキーワードの一つに、「ビッグデータ」がありますね。
私もちゃんと、勉強したいなと思ってます。
そんな動機もあって先日、NHKが放送した特集番組「震災ビッグデータ」を見ました。
カーナビやスマホのGPS情報を使って震災当日の全ての人や車の動きがビジュアルに表現できるということに、衝撃を受けました。私ホント無学でしたね、こんなことまでできるんだビッグデータ。すげーって感じで見てましたよ。
このビッグデータがすごいと思ったもう一つの点は、データの「主語」が、自分とか何かの対象物ではなく、「時刻」であること。プロットデータだということだと思います。
例えば、震災当日の表現方法として、主語を自分にすると
「ボクは、3時から6時まで会社の事務室にいて、その後歩いて帰宅しました」
という情報になりますが、プロットデータだと
「3時時点でボクは会社の事務室にいます。」
「4時時点でボクは会社の事務室にいます。」
「5時時点でボクは会社の事務室にいます。」
「6時時点でボクは会社の事務室にいます。」
「7時時点でボクは墨田区国道6号線の路上にいます。」
というデータに分解されます。だから
「4時時点で誰がどこにいたのか?」とか、
「6時から7時までの間にボクはどちらの方向にどれだけ移動したのか」(経路情報)
が分かったりしちゃうわけですね。こりゃたしかに分析の幅は広がります((+_+))
番組でも、こうした分析を踏まえて、いくつかの衝撃的なことが分かったと報じてました。
一つは震災後、高台に避難する人がいる中で、わざわざ津波危険エリアに入っていく人が相当数いたこと、
もう一つは複合的な渋滞により、完全に車が動けない状態に陥っていたケースが起きていたこと。
前者は、分析を進めると身内や親近者を助けに自宅まで戻ろうとしていた人達のようです。これから分析を進めると、もっと新しいことが見えてくるかもしれません。
で、このビッグデータがすごいというのがよく分かったのですが、さらにもう一つ特徴的なことがあると感じました。
今までのデータ分析というのは、
1.問題点を見つける
2.問題点を正確に把握するためのデータを収集する
3.収集した情報を分析する
・・・というように、データ収集は問題点を見出してからそれを分析するためのものを収集する、という流れが主流でした。でもこのビッグデータは、問題点を抽出するまえからデータ収集してます。問題抽出とデータ収集の前後が逆になってるんです。先の例にしても、カーナビのGPS機能は震災時の避難誘導に用いる目的で設けられたものじゃないですしね。
思うに、今まではデータ集めるにしても量的な限界と収集活動そのものにコストがかかっていたために、限定的なデータ収集を都度行うとしていたのが、ビッグデータでその垣根がなくなり、「とりあえずデータとして残せるもんは全部残しとけ」みたいなノリでデータ蓄積ができるようになったという技術的イノベーションが発生した、と考えられそうです。
なるほど、だからみんなビッグデータすげーっ!!と騒いでいるわけか。
人間や事象の営みすべてが数値化され、過去の経験則がより具体的な指標として今後の生き方に影響していくことで、人間はさらに失敗の「量」を減らせそうです。
一方でその行く先にあるのは「超効率化社会」、経験則を「正確」に分析し続ける機械にすべての判断が委ねられる機械支配の社会に向かっていくような、漠然とした違和感もないわけではないですね。
事実、「今日のお天気」について我々人類は、完全に膨大な分析データに身をゆだねているわけで。
「今日傘を手に持って出かけるかどうか」に個人の意思や決意が入り込む余地はなく、完全に天気データベースの判断に依存してるわけです。
これがさらに、「今日は牛乳を2本飲んだほうがいい」とか、「今日は○○さんと××店で一緒に食事をしたほうがいい」とか、「君は10年後に△△さんと結婚しなさい」とか、ビッグデータの活用がそんなワケワカラン方向に進まんことを願います。
なんか話の方向が、何がいいたいのかよくわからんようになりましたね。私もあんまり考えてません汗
ちなみに、「神の御心を知るには、統計学を知らねばならない」、という言葉があるそうです。
言い換えれば、統計学を知ってしまうと、神の御心を掌握してしまうことになったりしないか、そうすることでどんな困ったことが起きるんだろう?みたいな面倒なことも、いづれ真剣に考えなければいけなくなる日がくるのかもしれません。
↓診断士カンケ―ないじゃん、ワケワカランとか思ったら記念にポチお願いしますm(__)m

にほんブログ村