ビッグデータはいわゆるバブルのようなものに感じる。
データという有限のものを無限であるかのように考えあるいは扱っている。
プロセッサの処理速度は向上し,AIのアルゴリズムも改善が進み,
どんどんと消費速度は上がっていく。
一方で,データ作成・生成は違う。
ストレージや通信のコストは下がったことで,データ化する障壁が下がり,
文章から画像,そして動画と素材となるデータは量も種類も増加した。
また,インターネットへの参加者増というスケールで補うことや,
レガシーな情報をデータ化・デジタル化することでデータを増やすことはやっていた。
しかし,これらは一時的なものでしかない。
もちろん,ネット利用者の多くが最も多くデータを生み出す人と同じぐらいまで,
データ生成量が増やすことができれば,全体として今よりもデータ作成速度が上がるだろう。
しかし,それが達成できたとしても,おそらくは現在の消費速度,そして,
まだ改善される将来の消費速度には叶わないだろう。
実際,今までのような「力技」によるAIモデルの質の向上は望めなくなっているとの話が出てきている。
また,合成データを使うことの問題も明らかになるなど,限界に近づいてきている。
ビッグデータバブル,ひいてはAI改善バブルは終焉を迎え,かつてのようにAIの改善・進化に時間のかかる時代が到来しつつあるのかもしれない。