「今」のビッグデータに対して「データマイニング」を実行する際には、従来の「直線型」ではない、「循環型マーケティング」の理論と戦略を前提とする必要があります。

今日は、2012年11月2日にIBM箱崎本社で行なわれた、

「ビッグデータ時代を勝ち抜くためのデータマイニング活用セミナー」

に登壇された清水聰氏(慶應義塾大学教授)のお話のエッセンスを簡単にご紹介しましょう。(私見も入っている点、ご了承ください)


今までのデータマイニングが対象としてきたビッグデータとしては、

・小売業の購買履歴データ(POS)
・Webのアクセスログデータ

などがありました。これらは、基本的に「データフォーマット」が決まっていて、基本的にコード化が可能なもの。(「商品分類コード」とかが最初からあるわけです)

つまり同質で定量的なデータなものでした。データは大量だけど、データとしては扱いやすい。

一方、今のビッグデータは上記の

「同質・定量的データ」

だけでなく、コールセンターに寄せられる意見・苦情・要望等のデータ、
およびSNS上の投稿のデータといった、データフォーマットが固定しにくく、
コード化も難しい、

「異質・定性的データ」

が加わり、しかも、ユーザーのID情報などによって一人ひとりにすべてのデータが紐付けられたものです。

つまり、多様なデータが顧客単位で統合されているのが今のビッグデータ。
(私自身も実際の業務で取り組んでいますが、当然ながら、統合作業は簡単なものではありません。)

こうした、顧客単位でデータが統合されているものを

「シングルソース(のデータ)」

と専門的には呼びます。

顧客一人(シングル)ひとりが、

全ての情報・データの源(source)

となっているからですね。


さて、従来のビッグデータを対象とするデータマイニングでは、

・販売履歴データ
・Webアクセスログデータ

続きはこちら