hsuetsugu’s diary

ITの技術的なことに関して主に書きます。Rとpythonとd3.jsとAWSとRaspberryPiあたりを不自由なく使いこなせるようになりたいです。

「データの見えざる手」を通してデータ分析とウェアラブルデバイスの考察など

  • データの見えざる手 ☆☆☆☆☆(5段階)

日立のビジネス顕微鏡の話。ビジネス顕微鏡、なんとなく聞いていたけど、こんな面白いものとは思っていなかった。首からぶらさげる名刺型のウェアラブルデバイスを人につけて、そのセンサーデータによる分析結果が書かれている。このウェアラブルデバイスでは、加速度センサーがつけている人自身の動きをもちろん捉えているけど、6方向に向いた赤外線もとりつけられており、誰と誰がコンタクトがあったのか、というインタラクションまで常に記録する。

本書は大きく二つにわかれる。

前半はこのセンサーを、日々の生活のなかで様々な職種の人につけてみたところ、一日の活動量の限界が実は決まっていることがわかった、という話。それが物理の法則と関連づけて説明されている。
これってほんとかなーと思ったので、ぜひ自分でもはかってみたい。これとは全然センシングできることは限られるけど、fitbitは買って一時期、というか3日間くらいつけてた。寝るときに手首に巻いたデバイスに、「今から寝るね」ってトントンして教えてあげなきゃいけないのが究極に面倒くさくて、かつ普段腕時計しないから手首にあたる感じが気になってすぐやめた。こういうのはユーザビリティの設計めちゃくちゃ大事。本書で使われているこのデバイスはつけている人は何もしなくていいのがよい。

あとは物理的には活動していないときでも脳はすごく活性化しているときって結構あるんだけど、それはどう説明されるんだろう。DeNA南場さんの『不格好経営』を読んだときとかはあまりに面白くて、モチベーションがもごもごと湧いてきて、読み終わったら朝方になってたけどそのまま新しいことの起案活動はじめちゃったり、寝ようとしたら頭冴えてきちゃって、1,2時間ベッドで悶々とした後結局出てきてアイデア書き出しちゃったり。そういうときは脳が活性化されていてもセンシングしている腕の動きとしてはそうじゃなさそうなんだけど。一方で、僕はオフィスで仕事しないタイプなので、日中考えごとしたいときは外歩き回ったりしてるし。物理的な活動量が制約されているだけで、脳の働きには制約がないということなのか。というか物理的な活動量に制約があるなかで生産性をあげようとした結果、自分は歩き回ったり、ベッドで頭が冴えたりしてるのかな。自分のをはかってみないと信じられないけど、すごく興味深い。
iWatchとかも、どう使うのかなー、単にヘルスケア管理とかだと面白くないなあと思っていたけど、本書で書かれているウェアラブルデバイスの世界はすごく希望があって、モチベーションが湧いてくる。


Deb Roy: The birth of a word - YouTube
センシングといえばこれも素敵だった。子供の成長ははやくて、そのとき当たり前のようにやってた仕草とか、おもしろい歌とか、すぐに忘れて違うことまたやり出しちゃうし、もっときちんと記録したい。


本書の後半は、コールセンターや小売店舗など様々なビジネスの現場での実験結果。

小売店舗での実験結果では、ある特定のポイントに店員を配置することで、来店客の流れが変わって客単価の高い棚に誘導され、結果的に客単価の向上に寄与した、という話が書かれている。最も興味深いのは、このアクションプランは全く人を介さずに作られているということ。本書で書かれているような、あるポイントに店員を配置することで来店客の流れを変わる、というのは複雑系の結果としてありそうだし、かつそれはきっと仮説で持てるものではない。ちなみにこの辺のメカニズムについては本書の前半で丁寧に説明されている。結果のばらつきというのは何の因果関係がなくても、結果として発生する。

並行して、人の手による分析も行われている。こちらは王道パターンで、関係者にヒアリングして、現場オペレーションを把握して、ビジネス仮説をもったうえで分析をして、そこから作り上げられた施策を実行したが、それは効果がなかったという。
これは結構経験上納得させられたことで、小売のデータを渡されたとしても、店舗オペレーション変えて売上あげる施策を立案するのは厳しい。頼りになるのはエンドだとか価格みたいなすごくわかりやすいドライバーを操作することだけど、それをしたところでメーカーのシェアが変わるだけで小売にとっては総売上は変わらない。結果としてメーカーに対するリベートの要求が強くなって・・・みたいな今の状況を変えるのは極めて難しい。店舗オペレーションということでいきつくのはせいぜい店員の最適配置くらい。それも売上向上ではなくてコスト削減。
しかし、本書での実験では、そうではない結果となっている。ここのポイントは、まさに下記の部分。

向上した目的変数のデータは、1日の店舗の売上などのマクロな情報なのに対し、それを説明するビッグデータの方は、細かい時刻ごと、顧客ごと、店員ごと、場所ごとのミクロなもので業績との直接の関係性が一見薄いデータである。この間の大きなギャップを埋めることができるのが「H」の特徴である。このミクロとマクロとのギャップを埋める独自技術を「跳躍学習」(Leap Learning)と呼んでいる。

僕が感じていたデータ分析の限界もまさにこの通りで、結局、価格弾性は店別日別商品別の価格データと同じ粒度での売上数量(もしくは金額もしくは粗利もしくは客数で正規化したPI値)だったりするし、エンドにおかれたかどうかの情報もこの粒度に対して0と1に符号化しているだけ。販促予算のポートフォリオを考えることはできるけど、それでも店舗全体の売上を向上させる、というのは難しい。ID-POSとかで客別の行動をとれるようになったとしても、それでクーポンを送るとか、CLOサービスみたいなのってあんま面白くないなあと思ってた。それは、客別時間帯別とかまでデータがとれるようになって、施策も客別時間帯別にしているっていう。つまり、上でいう粒度が一緒。

人口知能が、

「運転判断型」「質問応答型」「パターン識別型」

の3つ分類ということも僕は聞いたことがなかったんだけど、確かに本書でやられているような分析は聞いたことがない。第3の「パターン識別型」については僕自身はあまり精通していないけど、「ディープラーニング」という言葉で最近よく聞く。テキストマイニングの領域だと、グーグルのword2vecとかはちょっと遊んで使ってみたことはあって、意味の足し算引き算ができたりしてものすごい。だけど、これはなんていうか一次元なんだよね。
パターン認識って自分の関わる領域でどう使えるのかなあ、とあまりアイデアが出てなかった。

そしてビッグデータで儲けるための3原則として、下記が記載されている。

第1の原則 向上すべき業績(アウトカム)を明確にする
第2の原則 向上すべき業績に関係するデータをヒトモノカネに広く収集する
第3の原則 仮説に頼らず、コンピュータに業績向上策をデータから逆推定させる

本書で「H」と書かれているのが第3原則を実施してくれるコンピュータのことなんだけど、それよりも今難しいのは第2の原則。でも本書で使われているウェアラブルセンサーはそんなに特殊なものではなくて、きっと単価も高くない。きっとオープンハードウェアの流れでこういうものも出てくるだろうし、もしかしたらすでにあるのかもしれない。あとは第2の原則のデータ集めのところで、上にかいた「パターン識別型」の分析が有効なのは確かで、テキストマイニングもそうだし画像認識もそうだし、ビッグデータにタグ付けをして、識別子を付与する、というところではすごく使える技術。

そして、今の自分のスキルでは自力で「第3の原則」をすることもできないけど、仮説に頼らないということはがんばってチューニングしたりもいらないんだろうから、いつかオープンなものができて、ここにお金も労力も必要なくなるんだろう。ここの世界までくると、もう独力で分析をやりきるのは無理があって、提携しないとやっていけなくなると思われる。結構一人でやりきるのが好きだったけど、そろそろやり方を変えないといけないかもしれない。

これまでのデータ分析について、

これは、職人による手工業に近い。これまでのビッグデータの分析現場を見えていると、家内制手工業の職人の工房に舞い戻ったような錯覚を覚える。一見、最先端のハイテクの職業と思われている「アナリティクス」「データサイエンティスト」は実は、親方と弟子の勘と経験によるまったく手工業の世界なので。大事なところ、労力がかかるところは工業化もコンピュータ化もされていないのである。

というのは全くその通り。データ分析ってなんか世間的にかっこ良くいわれているのが不思議だけど、普通に地道にヒアリングとかさせてもらわないと結果だせないし、すごく泥臭い。そこが楽しいところでもあるけど。データ分析なんてオペレーション改革の一要素でしかない。
でも、ほんとに世間のイメージ通り、泥臭くなくスマートに出せるんじゃないかなーなんてことを思ったりもしていたけど、本書ではほんとにスマートにやっちゃってるみたい。とはいえ、やっぱ現行の業務は把握しないとそもそもコスト構造みたいな原単価テーブルみたいなマスタは作れないし、本書ではセンサーデータ自体自分たちのものを使っている訳だけど、大体ネットワーク通信などいろいな制約下において、センシング条件が明確化されていないなかでデータを扱うので、データ発生のメカニズムをきちんと理解するだけでも結構時間かかる。それは変わらないんじゃないか。

あとはテキストデータと定量データとみたいな異種混合データの分析が完全に自動化されるというのは考えにくい気がする。本書に書かれている小売店舗の分析はなんとなく元データとしてはやりやすそうだけど、例えばコールセンターの分析に、顧客からの問い合わせ内容のテキストデータとかもいれて、それを形態素解析して文書分類した結果を定量データとあてる、みたいな流れはあるわけだけど、それも全部自動化するのって可能なのかな。今は各ステップで出てきた結果に対する解釈が必要な訳で、そこがまさに上記の"職人的"という表現がぴったりなところ。

とはいえ、取得するデータに妥協しちゃいけない、というのはその通り。しかもそれができるような環境(ハードもソフトも)は整ってきているし。ここはいろいろやりようが見えてきた気もする。

関係ないけど、直島宣言というのを本書で初めて知った。去年高松出張行って以来、一度行ってみたいと思っていた直島でこんなことがあったなんて。ますます行ってみたくなった。


よい本でした。

関連記事