データの解析は今までも存在してきました。それがデータアナリティクス1.0と2.0の時代。
1.0では主に大企業に利用され、社内の小規模な構造化データをバッチで処理し、意思決定に利用するというもの。
そして2.0ではスタートアップやネット起業を中心に大規模な非構造化データをアジャイル的に処理し、予測分析を行い新製品・サービスの開発に役立てるというもの。
そして本書のタイトルにもなっている3.0は構造データ・非構造データだけでなく音声データ、映像データなどのあらゆる種類のデータを統合し、何百ペタバイト級のデータを素早く処理し意思決定だけでなくサービス開発にも活かす指示型時代を指します。
即ち、処理結果によってデータが指示・提案するデータを人が承諾・却下/採用・不採用するような、そのような時代です。
実際に本書では、ビッグデータ(ボリューム、バラエティ、ベロシティを兼ね備えたデータ群)から、分析・予測モデルを構築することにより、コスト削減や意思決定の改善、製品・サービスの改善など、様々な用途に活用されはじめている事例が多く掲載されていますが、この巨大データを高速に処理出来る「ハイパフォーマンス・アナリティクス」が現在HadoopやMapReduceなどを通じて実現出来ることが非常に大きいわけですが、従来から行っていたデータ活用をより安く・速く・より良いものにするアプローチの方が会社においてコンセンサスを取りやすく、案件も動かしやすいというのは世界共通で存在しているようです。
日本では現在ビッグデータよりもDMP系の広告分野への参入が非常に多く、非構造化データよりも構造化データをリアルタイムで処理するRTBへの関心のほうが大きい。そしてお金になるから毎日のようにどこかの企業が参入をしています。
日本でビッグデータが語られる場合、ボリュームとベロシティだけが話題にされることが多く、非構造化データといったバラエティに関しては殆ど話に上がりません。
構造化されたリレーションDBという意味では2.0の世界でグチャグチャ議論しているといった印象を持っています。
中にはビッグデータだから「仮説なんて要らない」という発言さえも公の場でされているようです。直接聞いた訳ではありませんが、データ(ビッグ??)の重回帰分析などで要因の傾向値が数値で示されるから、その通り実行すればいいんだ!といった脳筋的な発想なのでしょう。
ビジネスの仮説と分析モデルに対する継続的な見直しが抜け落ち兼ねない、危ない発想だと感じています。
本書におけるビッグデータの議論は非常に的を射ていると思ってはいますが、当たり前ですが、どの話もクローズドなんですよね。オープンデータ使えばいいじゃん!という議論もありますが、インターネットにおける集客的な意味ではネット上の広告におけるインタレストには社内分析結果の内容にもよりますが反映させることができず、「Googleに任せればいいじゃん!」「Yahoo!に任せればいいじゃん」みたいな議論にやはりなってしまうのかなと思ったりしています。
そう考えると最近のDMP市場拡大はRTBという「私設取引システム」を次々に作っているにすぎないし、OpenRTB仕様は大事なのですが、ベロシティを追求しただけの単なる市場なんですよね。
ビッグデータの重要性と予測性、そして企業文化さえも変化させ、今後はどのような規模の企業でも足を踏み入れる必要があるという事は本書でよく理解できます。ただ、何かひっかかる部分が残ったというのが率直な意見です。
0 コメント:
コメントを投稿