ビッグデータの活用で、顧客のニーズに即した速くて精緻な分析が可能に

 自社が保有するビッグデータをいち早くマーケティングに活用しているのが、リクルートだ。同社MIT United システム基盤推進室 プロフェッショナルエンジニアリンググループの石川信行氏に、ビッグデータ分析の具体的な成果とともに、それがどのような可能性を秘めているのかを聞いてみた。

大量のデータを短時間で分析することでよりパーソナライズした情報の提供が可能に

――ビッグデータの分析・活用に取り組むようになった背景を聞かせて下さい。

石川信行氏 石川信行氏

 弊社が運営する事業、それらが展開するメディアでは、ユーザーの属性データのほか、ユーザーがどのサイトを訪れ、どのページを見てどんな行動をとったのかといったログデータを、これまでも1カ月、四半期、1年ごとといった単位で集計し、分析してきました。しかし、デジタル化が進む中、データの量がどんどん増えて集計が追い付かなくなってきていました。そこで2年ほど前から、分散してデータを処理できるソフトウエア基盤「Hadoop(ハドゥープ)」の検証を始め、2011年度から順次導入しています。当社は各事業ごとに独立採算で運営するカンパニー制をとっていますが、各カンパニーごとにユーザーのデータを分析し、マーケティングへの活用を始めています。

――Hadoopの導入前後で、どんな変化がありましたか。

 Hadoopの大きな特長として、大規模データを
1:これまでよりも速く処理できる
2:ためておくことができる
ことが挙げられます。これまでの汎用(はんよう)的なデータベース製品は、1台のサーバーにデータをためていくことが基本なので、蓄積できる量にも限界がありました。もし、さらに大量のデータをためておこうとするならば、ハイスペックで高価なサーバーに載せ替えていかなければならなかった。しかしHadoopは、サーバーを増設していけばいいので、コストをあまりかけることなく大きなデータをためることができ、そのすべてを分析に使えるようになったのです。

 また、これまではデータの中から一定のサンプルを抽出して分析した結果を、全体の結果として見る統計学的な考え方で進めてきました。たとえば3年間のデータの中から2週間分のデータを抽出し、それを3年分の分析結果としてみるといったことですが、この方法が果たして正しいのだろうか、という疑問がありました。Hadoopならば3年分すべてのデータを使って分析することによって「リアルな結果」を得ることができるため、マーケットの実情が見えてきて、隠れた価値や特性もわかるようになりました。これが、Hadoopを導入した大きなメリットであり、成果であると考えています。

――具体的な事例、成果は。

 最初にHadoopを導入したのは、中古車情報を扱う「カーセンサー.net」です。中古車は、車種や型式、色だけでなく、走行距離や事故歴などによって価格が変わる「一物一価」の特殊な市場です。これまでも「中古車の価格はどのような条件で変動するのか」を把握することが新たな事業やサービスを展開する上で非常に重要と考え、条件を設定して分析してきました。しかしPCやデータベースの処理能力に限界があったため、たとえば「車種と年式」という条件で分析したあとに「やはり色も条件に入れたい」となった場合、すべて一から分析し直さなければなりませんでした。

 その上、結果を出すまでに何カ月もかかってしまう場合もあって、膨大な作業量をかけたのにもかかわらず、活用したいときにはすでに古いデータになってしまうこともあります。それがHadoopを使えば、メーカー、車種、型式、色……とどんどん条件を追加して分析することができます。また、処理スピードが圧倒的に速いので、「この条件の組み合わせでは有効なデータが得られない」と判断すれば、すぐ次のトライアルが可能で、それを繰り返すことでよりマーケットに即した精緻(せいち)な結果を導き出せるようになりました。

 クーポン・グルメ情報の「ホットペッパーグルメ」では、ユーザーに「グルメール」というリコメンドメールを送信しています。これまでは、たとえば1週間分のユーザーの行動履歴のデータにリコメンドのロジックをかませ、「このユーザーにこのメールを」といった手法で送信していました。それがHadoopを導入したことで、過去1年分のデータを使えるようになり、送信対象となるユーザー数が増えました。ユーザーのクーポン利用などの履歴も数カ月前、1年前とさかのぼることができるので、よりユーザーの嗜好(しこう)や行動に合った「ツボ」にはまるリコメンドメールを送信できるようになったのです。実際、ページビューが急増し、「グルメール」のクリック率が1.6倍に上昇するという成果が出ています。

 住宅情報を提供する「SUUMO」でも、ユーザーの属性やログによって条件を細かく設定することで、エリア、賃貸か分譲物件か、といったユーザーごとの意向になるべく沿える情報を届け始めています。

 ご紹介した事例は、事業の内容によってデータ活用の見え方は違いますが、ビッグデータを扱えるようになったことで対象となるユーザー数を増やすことができ、さらに細かい条件で属性を絞ることでユーザーのグループを作って、そこに対して最適な施策を打つことができるようになった、という点で共通しています。ユーザーにとって有益で便利になるのはもちろん、得意先などとの商談やコンサルタント業務などでもビッグデータから得られる分析結果は大きな強みになると期待しています。

エンジニアとマーケッター「両輪」のスキルを持った人材が必要

――ソーシャルメディア上でのデータについては、どのように考えていますか。

 ユーザー属性やアクセスログについては、弊社が運営するメディアが管理しているデータなので、まずここから着手したわけですが、保有している以上のユーザーデータを得ようとするならば、次はソーシャルメディア、ということになります。何ができるのかは今のところ未知数ですが、活用を視野に入れ検討を進めています。

 ソーシャルメディア上にあるテキストデータや音声データ、動画といった、いわゆる「非構造化データ」は膨大なデータ量になりますし、そのデータを処理する機械学習のロジックも複雑になります。Hadoopは非構造化データも分析できるのが特長で、今後は会話文や口コミなどのテキストマイニングを手がけていく考えです。

――今感じられている課題、今後の展望について聞かせてください。

 課題は「人材」です。Hadoopは使いやすくするツールはありますが、それでも本格的に使いこなせる人材はまだ少ないのが現状です。さらに、ビッグデータを事業に活用するのであれば、そのデータを使って何をすればいいのかといったマーケティングの視点で思考できる「センス」が必要です。ビッグデータは間違いなく「宝の山」ですが、使い手がいなければただの「データの山」で終わってしまう。エンジニアとマーケッター、両方の思考を兼ね備えた人材をいかに育てていくかは非常に大きな課題です。

 アメリカでは、ネット企業だけでなく、メーカー、金融、コンサル、医療など、さまざまな業種がすでにビッグデータを積極的に活用しており、数年で日本にもその波が必ず来ると確信しています。ユーザーによって適切な広告を見せたり、適切なサービスを提供したりする、といったユーザーターゲティングはビッグデータ分析の基本中の基本です。今後はソーシャルメディア上のデータなども分析してより個人最適を図りながら、ビッグデータ活用の実績を積んでいく考えです。

石川信行(いしかわ・のぶゆき)

リクルート MIT United システム基盤推進室 プロフェッショナルエンジニアリンググループ

2009年に入社し、カーセンサーの営業の半年経験した後、同事業の営業支援ウェブサイトのJavaによるコーディングに従事。その後JavaScriptを用いたスマートフォンサイトの高速開発を経験し、現在は、Hadoopによる大規模データ解析を推進し、『カーセンサーnet』や『SUUMO』、『リクナビネクスト』などへの導入提案のほか分析や開発も行っている。趣味は外国産カブトムシ飼育、海水魚飼育、スキューバダイビング。