[読了]東大准教授に教わる「人工知能って、そんなことまでできるんですか?」

東大准教授に教わる「人工知能って、そんなことまでできるんですか?」 2015年はインターネットの大きな変革が起きるときだと思っています。
その一つに、このAI・全脳アーキテクチャがあると思っています。

本書ではそのAIについての松尾さんと、塩野さんの対談が収められており、これを読むことでざっと現在のAIというものを俯瞰することが出来ると思います。

AIを研究し、それが社会にもたらす影響や効果というものは様々なモノが想像出来ると思いますが、今現在ビジネスにおいてPrediction、即ち予測の精度をいかに高めるかを追求しています。

今までのRFM的な発想、即ち企業側が顧客一人ひとりの購買行動のきっかけは良くわからないが、最終購入日や購入金額、購入頻度などの軸から何となくユーザーを捉え、マーケティングを行っていくという段階から、一人ひとりのユーザー行動からユーザーの興味や行動パターンなどを元にクラスタリングしたり、行動を元にプロファイリングデータを作成していき、次の行動を予測したりバナーの効果を高めたりすることを追求しています。

この辺りは所謂ビッグデータの活用と言われている部分で、今後ディープラーニング技術を導入することによって、一人ひとりのユーザーに対するPredictionの精度を高めていくのではないか。
そう感じています。

もし仮に住所や名前と言った所謂個人情報が存在しない状態で、単なる行動データだけの解析をもって、一人ひとりのユーザーのPredictionをある程度の精度で提供できるとしたら、それは精度の高いプロファイリングデータとなり、それもまたパーソナルデータとなっていきます。

World Economic Forum(ダボス会議)ではパーソナルデータを以下の3つに分類しています。
  • Volunteered data : 自発的生成データ
  • Observed data : 観測データ
  • Inferred data : 推定データ
現在ではTwitterの書き込みやブログの書き込み、その他様々な自発的生成データを取得し、将来を予測しようとする動きがある一方で、cXenseのようなマーケティングオートメーション系企業はユーザー行動からリアルタイムにユーザーをプロファイリングしながらバナーを表示したりしています。

ナイキのようなメーカーが無料または低額で身体情報を計測するツールを提供し、そのデータを企業へ提供する見返りとして、スマートフォンアプリでデータを蓄積させて成果が確認できたり、他人と比較したり自分の健康状態や習慣を把握出来るようにさせたりしています。

モノのインターネットと言っても良いと思いますが、IoTやセンサー情報などの観測データは一見企業にとって他社へ販売する価値もないデータのように見え、お金になるのはあくまで個人情報ではないかとする議論もありますが、実はそうではないと考えており、前にも別の本の感想で書いたのですが人の行動を予測すると言った場合、tの次はt+1が来るという決定論的な部分でtからt+1の間に何らかのコンテキスト情報が含まれていると考えられます。

即ち、tからt+1の行動が導かれるとき、そのt+1になる条件にたとえば週に10キロ以上走っている人みたいな観測データが含まれている可能性があるのです。
広告で言うならば、1つのバナーを見せた時、行動が半々にわかれたとするならば、それを別れさせたコンテキストが何らか存在しているはずなのです。

本書もそうですが今ビッグデータやAIで議論されていることは、統計的な手法で人をクラスタリングしたりとグループという単位を意識しますが、特定のPredictionに対しユーザー行動データを取得し、再びクラスタリングされ・・・という過程を繰り返す先には前にも書いたとおり、一人ひとりに異なったPredictionが生まれると考えられます。それはあたかもコンシェルジュとも言えると思うわけですが、最終的には一人ひとりのコンテキストを把握し、誰一人として全く同じPredictionは導かれない状態になると思っています。

この辺り、私自身なかなか頭のなかで整理がついていない部分ではあるのですが。

一方で少し話が変わりますが、精度の高いプロファイリングデータに関してはk-匿名性尺度という概念でパーソナルデータという枠組みから外れるという解釈も出来るのかな?ということも考えてしまいました。

本書ではAIについての将来的な見通しは結構保守的な印象を持ちましたが、個人的にはフューチャリストのレイ・カーツワイル氏の本を読んだ影響か、もっと大きな変化を望んでも良いかな?と思っています。

まだ全然自分の頭で整理ができていませんが、2015年の変化に対して、自分がどの立場で参加し、当事者として立ちまわるかを最近はよく考えたりしています。


[読了]How Google Works (ハウ・グーグル・ワークス) ―私たちの働き方とマネジメント

How Google Works (ハウ・グーグル・ワークス)  ―私たちの働き方とマネジメント本書はGoogleの基本理念、人材の採用、人事、企業の構造だけでなく、働き方にいたるまでを詳細に説明しているもので、グローバルで従業員数も非常に多いGoogleがどのように運営されているかが語られている本です。

Googleは人材という点では、「スマート・クリエイティブ」という人材を最も重視していることが分かります。

スマート・クリエイティブとは、
自分の〝商売道具〟を使いこなすための高度な専門知識を持っており、経験値も高い。私たちの業界ではコンピュータ科学者か、少なくとも日々コンピュータの画面上で起きている魔法の背後にあるシステムの理論や構造を理解している人材ということになる。
と説明されています。
主な特徴としては
  • 分析力を持つ
  • ビジネス感覚を持つ
  • 競争心がある
  • ユーザーを理解している
  • 好奇心旺盛
  • 失敗を恐れない
  • 自発的
  • あらゆる可能性にオープン
  • コミュニケーションが得意
  • 細かい点まで注意が行き届く
一言でいうならば
努力をいとわず、これまでの常識的方法に疑問を持ち、新しいやり方を試すことに積極的であることだ。
とされています。 そして、スマート・クリエイティブ型の人間は重要な訳ですが、中でもプロダクト・マネジャーに求められるのは、「プロダクトをさらに良くするための技術的ヒントを見つけること」だと説明されています。
Googleの場合、プロダクト・マネジャーはスマート・クリエイティブな人間しかなれないのかもしれません。

ここでいう「技術的ヒント」とは、その後述べられる「技術的アイディア」と同義だと思われますが、
技術的アイデアとは、大幅なコストダウンにつながったり、プロダクトの機能や使い勝手を何倍も高めたりするような、新たな技術の活用法やデザインのことだ。そこから誕生するプロダクトは、競合品と比べて本質的に優れている。その差は歴然としていて、マーケティングの努力などしなくても、消費者はすぐにそのプロダクトがほかのどのプロダクトとも違うことに気づく。
と説明しています。そうGoogleも「10倍良い」という事にこだわっているのです。
ラリー・ページの口癖「その10倍スケールで考えろ」とは、本書では車の例が出ていましたが、例えばリッター20キロ走れる車を30キロにするのは、大変かもしれませんが漸進的イノベーションで達成できるでしょう。でも200キロ走れる車を作ると考えたら、従来型のアプローチでは達成できず、考え方を根本から破壊して1から作り直す必要があるのです。
本書ではこの部分に関し、次のように書かれています。
この「どうやってゼロからつくり直そうか?」という思考プロセスが、これまで誰もが検討しなかったようなアイデアを生み出すのだ。
フューチャリストのレイ・カーツワイル氏も、我々人間が未来を直線的に考えがちだと指摘しています。本当は二次曲線的に進んでいるにも関わらず。
Googleの考えるイノベーションとは「新しく、意外性があり、劇的に有用なものでなければならない。」と説明されています。

Googleではリソースの70%をコアビジネスに、20%を成長プロダクトに、10%を新規プロジェクトに充てるとしているのですが、本書を読むとなぜ福利厚生面を手厚くしているかの理由にも納得出来る部分があると思うと同時に、実際20%の部分が本来休日である土日祝日にこなす社員が存在することを考えれば、100%コアビジネス、プラス20%を成長プロダクトに時間が割かれているとも言えます。

また、社員個々人の評価には「OKR」という指標を使っており、「個々の社員の目標(Objectives、達成すべき戦略的目標)と主要な結果(Key Results、その目標の達成度を示す客観的指標)」の2軸を用いているようです。

客観的に明確で具体的な数値目標だけでなく、全てが100%達成している状態は所謂「発想が小さい」状態を示すだけなので良しとはされていないのです。

その他デモデーの存在や、1つの質問で人を見抜くという方法はハッとさせられることが多いです。

一方でスマート・クリエイティブな人間は会社を去る事も多いわけですが、必要に応じて新たな刺激や知識に触れさせるために役員を中心に実施されている会議へ出席させたり、新しいポジションを作ったりもしているようです。
「グーグルで大切なのは〝何がデキるか〟であって、〝どんなヤツか〟ではない」
 所謂、権威のある人間に従うHIPPOを否定し、ヒエラルキー構造を否定し、フラットな構造を維持するやり方はAmazonの2 Pizza Teamと同様に徹底された企業構造となっています。
新しく入ってきた人にとっては、どの部署で何が開発されているのかが分かりにくいカオスな状態となりますが、それがまた面白いイノベーションを生み出すのも事実なのです。

日本でよくある、「プロダクト」を見れば社内の部署間の力関係が見える状態を否定する。
これも考えれば直ぐに分かる事ですが、本書を読んでいて「なるほど」と思いました。iPhoneを手にとってみろと。。。そうすればAppleが一番重要視している人物が誰であるか分かるだろ?そう「顧客であるユーザー自身である」と。

プロダクトを一目見ただけで、社内のヒエラルキー構造や部門間の対立、またはステークホルダー重視の構造などが見透かされるようなものは、全くもってプロダクトとしては論外である訳です。

Googleは圧倒的にサービスで優位であれば、時には有料でサービスを提供することもありますが、基本的にはオープン思考であるわけですが、この部分に関しては

オープンな世界では、すでに他の人が完了した仕事をやり直す必要がなくなり、誰もが新たな発明を生み出してシステム全体を前進させることに集中できるため、イノベーションが大いに促進される。
クローズ・システムでもこれほど強烈なインパクトを発揮できるプロダクトがあるなら、挑戦してもいいだろう。だがそうではない場合、初期設定はオープンにしたほうがいい。
などと書いています。
クローズという意味ではAppleやFacebookなどは代表的なサービス事例だと思いますが、AppleのiPhoneの場合は、他社がiPhoneを自由に作れない分、Appleはゼッタイに失敗できないというプレッシャーを背負っていると同時に、一度でもユーザーを裏切ることができない状態を作り出しています。そういう点ではAppleの素晴らしさも分かると同時に、脆い側面も見えてくる気がします。

久しぶりにKindleでここまでハイライト線を引いたなと自分でも思うくらい、色々と得るものがありました。Googleの社風として有名な事も沢山書かれていますが。

最近のGoogleを取り巻く状況を少し考えてみると、2015年、2016年はプロダクトのGoogle検索離れが大幅に加速します。
FirefoxがデフォルトGoogle検索を止め、Appleが2015年でデフォルトGoogle検索を止め、代わりとなるのがYahoo検索だったりYandex系列だったり、様々な動きがありますが、私個人的にはGoogle検索というものを考える良いキッカケになりました。

Googleはあくまで知識・情報を整理するという側面では抜きん出ているものがあると思っていますが、例えばコマース分野だけに特化した場合、「検索」というものをより良くすることは可能なのでしょうか?
複数社から提供されているAPIを、同じデータであれば1本に束ねることで何かメリットは生み出すことは出来るのでしょうか?
複数のAPIの中でユーザー行動を予測できるようなコンテキストと成り得るものは無いのでしょうか?

色々と考えてみると、もしかするとGoogle検索を抜いて圧倒的に有用なサービスを立ち上げることも可能なのかもしれない・・・などと少し想像をしたりしてみました。


How Google Works (ハウ・グーグル・ワークス)  ―私たちの働き方とマネジメント
エリック・シュミット ジョナサン・ローゼンバーグ アラン・イーグル
日本経済新聞出版社
売り上げランキング: 42

[読了]グロースの時代 ヤフー、フェイスブック・・・で実践したビジネスを成長させるマインドとは

グロースの時代 ヤフー、フェイスブック・・・で実践したビジネスを成長させるマインドとは (ノンフィクション単行本) 森岡氏自身のビジネスマインド、そして主にFacebook Japanでの経験、Facebook本体のビジネスパーソンが、どう戦略立てて、どう攻略していっているかが詰まっている本です。

Facebookに関しては、グローバルで成功している企業の中の人物がどのようなビジネスマインドを持っているかということとも同義だと思いますが、非常に刺激的な本でした。

何か1つの目標、自分が作りたいものを想像して、そのディテールを煮詰める。そこに至る過程や手段、その時その時のサービス像とユーザー像やKPI数値に至るまで、ちゃんと考えているか。

これは経営者がWHYという理想形を考え、そこに至るまでのHOW、そして実際に何を行うかというWHATの部分まで、一人ではなくても良いとは思いますが、チームでちゃんと考え動いているのかどうか。

そして、そのミッションが重要であるならば全力を尽くしているかどうかが問われます。
それはビジネスだけではなく、遊びなどにも転用出来るわけですが、読みながらも再度自分を見つめなおす機会となりました。

インディバルの初代社長岩下順二郎氏の「売上は価値の総和であり、利益は工夫の総和である」という言葉にも非常に共感します。
最近当たり前のように企業において「Value Proposition」が大事だという話を聞く機会が多いわけですが、Value Propositionは企業である限り存在するのは当たり前。あえて「Unique Value Proposition」という言葉を使いますが、その企業でしか生み出せない価値こそが「工夫」に当たる部分で、そこを強みとして持っているか、その強みが活かせているか、その強みをマーケティングの武器にしているかが問われます。

「工夫」がユーザーに評価されないのであれば、その原価に上乗せされた利益分をその会社に払うくらいなら、他の企業に支払ったほうがマシだと思われてしまうかもしれません。

そして今重要視されている「FACT」。
データドリブンで仕事を進めていく重要性と、そのデータ、即ち「FACT」をちゃんと示せているか。この点は自分でもかなり反省すべき点でもあります。しかしながら「FACT」があるからこそインパクトのある施策を打てるようになり、それが失敗したとしてもその考え方がとても重要だと言えるわけです。

ある意味で森岡氏の考え方はプロダクトありきのマーケティング思考であり、プロダクトインを前提とした思考ではないのかもしれないと思われますが、そこはFacebookのリリース、即ち少数の人限定でリリースをして「FACT」を握るという手段でカバーされています。

この部分に関して言うならばGoogleだったりAmazonも同様なわけではありますが、大企業におけるLean的な概念として定着してきました。
プロダクトアウト型だけれども、ユーザーに触ってもらってデータを取得し、ダメであればPivot、またはそのサービス自体のリリースを止める。そんな概念ですね。

そういう意味で、本書の内容とは離れますが、最近「Lean」はスタートアップ企業的な方法論と大企業における方法論は、だいぶ差が出てきたと感じています。

森岡氏は今年からGunosyの社外取締役にも就任されているということで、KDDIだけでなくGunosyの今後の動き方がとても楽しみになりました。

[読了]なぜ、日本人はモノを買わないのか?: 1万人の時系列データでわかる日本の消費者

なぜ、日本人はモノを買わないのか?: 1万人の時系列データでわかる日本の消費者 本書自体はNRIが実施してきた統計をまとめている本ですが、やっぱりインターネットで実現できていない「体験」や「文字ではわからない感覚情報」というものをどう実現すればよいのだろうかと少し読みながら考えてしまいました。

例えば、海外で一人ひとりにコンシェルジュ的な担当が付き、その人に合った服をチョイスして一式購入できるというサービスがあったりしますが、その場合自分の胸囲情報だったり一般的な身長データだったりをウェブサイトへ登録するわけです。

海外のオンラインアパレルサイトでも、同様のデータを登録しておくことが可能なサービスは複数あります。
そういった情報をもしKinect等を使って自動で計測し、ウェブサイトとは言わずともローカルにデータとして保有しておき、必要に応じてウェブサービスへ登録できたらどうでしょう?

そして、たとえば「靴」一つをとっても、靴の中の容積にかんしてもっと沢山情報を持っていて、例えば内部を計測して幅だったり長さだったりを全てデータとして持っていたらどうでしょう?

今ならJSON形式でデータを出力したり。。。

ウェブサイトでSとかMとかLなんていうサイズ感をプルダウンから選ぶ必要性もなくなりますし、今は無理かもしれませんが、そのうち柔らかい素材などで3Dモデリングして何となくの大きさなども把握しつつ、また靴の専門家のアドバイスの例えば「1cm大きめのサイズがGood」なんていうものもWEB上に表示させても良いですよね。

五感情報をどのようにWEBサイトで表現し、リアルと結びつけていくか。
昔香りの研究が行われていたりしましたが、いきなり導入したところで結局人の感覚比率を狂わせて、拒否感が出てきたり、「それ流行るの?」的な言葉が沢山出てくるだけで結局すぐに廃れてしまうでしょう。最近はGoogle Glassでよく聞きますがw

こういうことを考えていると、皮肉のようですがHTMLというものによってデータをいくら構造的にマークアップしていってもキリが無いなと感じてしまうわけです。
近未来的にはどうしていくべきなのでしょうね。
DBのテーブル名やカラム名まである程度企業間で統一して、それをサービス感でも共有しながら一つの巨大な仮想DBを作っていくような。そんな未来を構築していかなければならないのかもしれません。

服などはCGとリアルの違いが無くなりつつある現在にも関わらず、未だにリアルの服がWEBではデータ化がされていません。服のレイヤリングを動的にWEBで表現できていません。

先にVRの世界でIntelはじめ、各社が鏡の前で服の組み合わせを合わせるという研究が進んでいるようにも見えますが、VRで利用されるデータを先にWEBサイトで実現することだって可能なはずなのです。

そんな本書とは一切関係のない、次のインターネットというものを想像していました。

なぜ、日本人はモノを買わないのか?: 1万人の時系列データでわかる日本の消費者
松下 東子 濱谷 健史 日戸 浩之 野村総合研究所 野村総研=
東洋経済新報社
売り上げランキング: 43,086

[読了]角川インターネット講座 (1) インターネットの基礎情報革命を支えるインフラストラクチャ

角川インターネット講座 (1) インターネットの基礎情報革命を支えるインフラストラクチャーインターネット全体の世界、そして日本のインターネットの歴史など、良い復習になりました。
日本のインターネットの歴史は逆に知らなかったので、KDDIやNTTの活躍などは凄く面白かったですね。

インターネットに関しては
We reject kings, presidents and voting. We believe in rough consensus and running code.
という言葉が表す通りで、運用面や思想が好きです。

個人的に最近、インターネットは国の検閲など、政治面を排除出来るくらいに便利なサービスを構築できないか?という事を凄く考えたりしています。近々に中国をはじめ、現状ではインターネットが分裂しかねないと肌で感じています。

本書の中で「もの」のインターネットについても触れられていて、それには3通りあると説明しています。
  • 無線タグなどをとつけて追跡可能とするもの
  • 計測値を送るセンサーをネットワークで繋ぎあわせ、データを収集するもの
  • 機械と機械が直接データを交換するもの
です。
最後は今までM2Mと言われていた分野だと言えると思います。

「もの」のインターネットに関しては、データの「所属」について考えることが無かったので、本書を読みながら凄く興味深く思いました。

確かに"私のデータを使って儲けるのなら、利益を分けて欲しい"的な思想もあり得ますよね。
データの利用を認める代わりに会費を無料化する。。。そんな取引も可能かもしれませんが、現状ではこのままなし崩し的な状況にもなりかねません。

「Do Not Track」だったり、昨今Firefoxが重視しているプライバシーの問題も、今後拡大を続けていくことが考えられます。またFirefoxがオススメするDuckDuckGoという検索サービスだって、裏側がYandexである以上、実質検索キーワード等のデータは流用されることは無いものの、Yandexで独占するデータと成り得るわけです。一方で自社サービスへの転用もできず、首を絞めているとも言えるかもしれませんが。

もしかすると、なし崩し的に勝手に利用される世界がある程度まで広がった後、実際にそのデータを使って儲けられる事が世間一般的に広まったタイミングで、行動データとサービスのバーターが始まるのかもしれません。

インターネットは現在でも開発途上です。
2015年はHTTP2.0、SPDY4.0、Javascript系のService Workerだったり、HTTPSの証明書がEFF主導で無料化されたりと、動きが大きい事が想定されます。

本書で現在のインターネットとその課題を改めて認識するのも良いでしょう。
WebSocketも標準化し、よりリアルタイムに近く複数人で様々なサービスを生み出していく。そんな未来の中で、この緩いインターネットという世界をどのように作り出し、どのような立ち位置に私自身がいたいかを再度考えさせられました。


[読了]コンテキスト思考 論理を超える問題解決の技術

コンテキスト思考 論理を超える問題解決の技術コンサルになりたて、もしくはコンサルにこれからなる人向けの本というところでしょうか。

この本を読むなら「WHYから始めよ!―インスパイア型リーダーはここが違う」とか、他にも色んな本を紹介したいところです。

当たり前のことだからこそ、再度復習。。。という意味では良いほんかと思います。

[読了]シンギュラリティは近い―人類が生命を超越するとき

シンギュラリティは近い―人類が生命を超越するとき未来予測として過去にもインターネットの登場だけでなく、インテリジェントマシーンによる戦争など、数々の予測を立てて有名なレイ・カーツワイル氏の本です。

「シンギュラリティ」すなわち技術的特異点を指すわけですが、将来を予測するときに一般的には直線的な進化をベースに話を進めがちですが、実際には二次曲線的に進化は遂げています。それは本書の前半部分を読んでも明らかですが、ムーアの法則はじめ、数々の事例がそれを裏付けていると言えるでしょう。

レイ・カーツワイル氏は2020年代や30年代に何が起こるかというのも本書内で予測をしているわけですが、著者が近く起こるシンギュラリティは「GNRテクノロジー」が要になると主張しています。

GNRテクノロジーとは即ち
  • G  : 遺伝学
  • N  : ナノテクノロジー
  • R  : ロボット工学
です。
現在はロボット工学の分野を中心に人間の脳をリバースエンジニアリングして、実際に機能を研究し、特にスーパーコンピューター分野で人間の脳の10の16乗cpsや10の19乗cpsを超えるために量子コンピュータや分子コンピュータの研究が行われ、数値的には脳を超える演算能力を得ていることは間違いありません。

今後、より一般化・小型化し、誰もが安価で人間以上の性能を得られるようになるでしょう。

この分野は今は少し話題としては少なくなりましたが、「AI」としてよく知られています。コンピュータ科学者のエレイン・リッチによると、AIとは「現段階では人間のほうがうまくできることを、いかにコンピュータにさせるかという学問」のことであると定義されます。

「AI」の分野の中で最も研究が熱い分野は「意思決定ルールの体系化」でしょう。
過去の似たような出来事に基づいて将来の出来事が起きる確率を見定めようとする「ベイジアンネット」、ある複数の自称が一定の順序で起こりうる確率を測る方法を提示する「マルコフモデル」が特によくさかんで、それ以外に人間のニューロンとその接続を単純化したモデルを参考にしたニューラル・ネットや遺伝的または進化的アルゴリズムで有性生殖や変異などによる進化を模倣した「遺伝的アルゴリズム(GA)」などがあります。

AIや量子コンピュータはGoogleが昨今様々なベンチャー企業を買収したり、盛んに活動をしている印象です。最近で言うとガーディアンに「Google buys two more UK artificial intelligence startups」という記事が出ていたりします。

「現在」は人間一人一人のコンテキストを把握し、それをベースに「必要」と判断される情報の取捨選択、通知機能に対する取り組みに焦点があたっています。
また、WEB業界では人の「行動」やソーシャルメディアを通じた文字しか「見る」ことはできないため、その行動をベイズ統計などを利用して、次を予測しようとしていますが、その世界は現実的ではあるものの非常に狭く感じます。

これはある意味、インターネットにおけるウェブサイトの限界なのかもしれません。
IoTの世界の早期構築とデータの共有化、そして仕様の確定は常に検討し、参入できなければGoogleなどの検索エンジンによってウェブサイトが切り取られ、"適切な"ユーザーへ勝手に提示されるだけの存在となるでしょう。

一人ひとりの人間を行動によってグルーピング出来る能力は非常に重要ですが、その行動から少しでもズレた場合、それを統計的に稀だと判断するか、別のグループを構築するかは、端的に言えばその人の行動を左右したコンテキストを検知できなかったということを示すわけですが、もしかすると未来を左右するくらい重要な点を見逃していることになるかもしれないのです。

そう考えると、WEBサイトの意味合いや今後の方針を見直す必要が出てくるのかもしれません。
今インターネットは情報の構造化をより推進すること、そしてHTTP2.0やSPDY、Service Workerなどの技術によるWEBの高速化、通信分野でもLTEやその後の高速化と低価格化が急激に進んでいます。

その動きに付いていくためには、クラウドの利用は必須となっていくでしょう。
そしてAIを構築する上で、常に一人ひとりに対して次の行動を予測する"確率的"な考え方を持つと同時に、ベイズ的に過去にどのような行動をしたかに次の行動が影響されるため、履歴を保持しなければなりません。

インターネットの情報が単純に「タグ」や「カテゴリ」機能によってグルーピング化されたあと、行動によってユーザー一人一人がグルーピング化され、WEBサイトはある特定のサイトに緩やかに所属するだけであって、結局ページ単位で分離され、適切なユーザーへリーチする段階まで来ました。

情報を構造化すればするほど、結局IoTを握るGoogleが有利となり、WEBサイトへ訪問する意味を失っていく可能性があるわけですが、それを踏まえWEBサイト運営側は、どう立ち回っていくべきかを再度検討していく必要があると考えています。

もしかすると、WEBサイト自身にAIが宿るだけで、ユーザーの行動を常にWEBサイト自身が追って、統計処理し自動的にフォントサイズを変更したり、デザインの一部分を変更する可能性だって秘めているわけです。特にWEBコンポーネントが来年には花開くでしょうから、コンポーネントを利用した自動的な改善もAI的処理が可能になるかもしれないのです。
むしろそういったテクノロジを研究するほうが未来への近道なのかもしれません。

本書を読むと、ロボット工学などの発展だけでなくナノテクノロジー技術の発展も合わせれば寿命の長期化といったものだけではなく、人間自身または人間が身に着けているモノがエネルギーを消費する側から生産する側へ移動し、また可逆的プログラミングによってエネルギー消費を抑えるという未来にワクワク感を感じます。

もちろん本書ではマイナス面、リスク面にも触れています。
今現在の日本でも「遺伝子組み換え」食品に対する生理的な反発が法律を動かしている部分もあると思いますが、これは将来に対する不安が反映するものであるため、科学者サイドが適切に情報を提示していないだけだからかもしれませんが、今後はこのような生理的なブロックにより技術発達が停止、阻害されることも多くなるでしょう。

それは本書で予言する急速な二次関数的な進化に対し思い描く不安の現れなのかもしれません。

本書は私自身にとって、非常に難解な本だと感じ、読むのに時間がかかりすぎてしまいましたが、再度将来を見つめる良いきっかけとなりました。
単純にレイ・カーツワイル氏という名前から来る予測本という位置づけではなく、将来に振り回されることなく、次の一手をどこに置くかを考えるきっかけにすれば良いと思います。

さて、みなさんはどんな未来を予測し、どのように行動しますか?


[読了]コンテキストの時代―ウェアラブルがもたらす次の10年

コンテキストの時代―ウェアラブルがもたらす次の10年Google GlassやGoogle Now、もちろんGoogleに留まらず海外におけるベンチャー企業でもコンテキストを利用したテクノロジー企業が増えてきた。

「コンテキスト」という言葉は日本語ではうまくハマる言葉がなく理解しづらい印象ですが、前後の事情や背景を広く意味しています。
したがって、Googleがカレンダーの予定を"見て"、電車・終電の案内をしてくるような技術も、コンテキストを利用したサービスです。

自宅のあらゆる電気が全てネットワークで繋がれていて、人の動きや声などに反応しながらON/OFFを操作したり、車の自動運転のデモが行われたりと、未来はあらゆるコンテキストを機械自らが理解し、実行するといったサービスで溢れかえることは間違いないでしょう。

本書ではそんなコンテキストを利用したサービスが非常に多く紹介されると同時に、サードレール問題と言われるプライバシー問題にも言及をしており、とても面白い本だと思います。

本書を読んでいて、様々な事を考えさせられました。

「コンテキスト」そのものについて考えてみると、人はコンテキストに基づいて様々なメディア(※)が持つアフォーダンスを理解し、実際に行動をしていると思いますが、そのことを考えると、プログラムがコンテキストを理解するとはどういう事なのか?またその結果、人に対する出力(アプローチ)というのは一体何なのか?という点です。
※ここでいうメディアはマクルーハン的な意味

最初に考えたのは、プログラムがコンテキストを理解するということは、プログラムがある特定のコンテキストをトリガー条件として、一つの事柄を実行する。またはクラウド側でトリガーが発動し、スマートフォンなどの身近な機器に結果が返ってくるものではないかと思いました。

プログラムは決められたデータ形式でM2Mの通信が発生しているため、人と人のようなエンコード・デコード問題は発生することはありません。
したがって、人は特定のコンテキストによって、その結果もたらす行動パターンは無数に存在する可能性がありますが、プログラムはそうではなく唯一の結果しか存在しないのではないか?と思ったわけです。

プログラミングはI/Oを文字によって定義しているものと理解したからですが、これは間違いではないかと感じました。
確かに人の行動によって電気を付けたり消したりするといった単純なコンテキストベースのサービスを考えた場合は間違っていないと思いますが、今後出てくるであろうコンテキストベースのサービスを考える上では、間違った考え方ではないでしょうか?

コンテキストの中に含まれる情報を考えていくと、場所という地理的な要因や、時間帯なども含まれるわけで、確かにコンテキストを判断する条件を複数持てば持つほど出力する結果は多様化します。また、たとえ全く同じコンテキストにおいて、過去に他人に指示した内容を再生した場合でも、その結論に対してユーザ側が拒否することも考えられます。

1プログラムはもちろん唯一のコンテキストと、その結果もたらす出力も一つ保持していなければならないでしょうが、コンテキストを基にしたテクノロジー・サービスは常に確率的な考え方と、サービスを提供する1個人の行動パターンの2つのレイヤーで考えていなければなりません。

その意味において、1コンテキストに対するアウトプットは一つに絞られないのではないか、即ち従来のプログラミング的な発想ではダメで、常にコンテキストの解釈は複数の可能性は複数持っていなければならないのではないかと感じました。

人間も毎回特定のコンテキストにおいて複数の行動パターンの中から、過去の経験を踏まえ一つの行動を選択していると考えるのであれば、コンテキストを理解し実行する今後のサービス群は、より人間的な考え方をプログラムで再現しなければならないのです。

では、全く同一のコンテキストを持つ二人が存在していたとして、その二人に全く同じ指示をサービスが行ったにも関わらず、二人の行動が違った場合、それは何を意味するのでしょうか?

私の中での結論は「コンテキストと捉えていたデータの不足」です。

昨今「ビッグデータ」という言葉がもてはやされている訳ですが、例えばある予定されている場所へ向かうために電車に乗る事と、車に乗る事の2つが可能性として存在していた場合、車を保有しているかどうか、またよく車に乗っているかどうか、もしかすると天気や気温などの情報も、コンテキストを理解して案内するためには必要な情報になる可能性があります。

即ち、コンテキストを理解し、その人に対して正しいpredictionを導けなかったということは、コンテキストと捉えていた情報が乏しいということを意味しているのではないかということです。

ビッグデータとして様々な"余分な"情報を取得して、企業がマーケティングなどに活かす事が重要視されていますが、「価値あるビッグデータ」とはpredictionのために必要なコンテキスト情報を全て持っていることであると言えます。

逆に言うと、例えばその人が男性であるか女性であるかの情報を自社で持っている必要があるかどうかは、そのサービスの利用にとって、その性別情報が一つのコンテキストとして重要な役割を果たすかどうかで判断すれば良いということになります。
もちろん、機械的な統計処理によって浮かび上がってくる事もあるでしょうが。

現在のマーケティングにおいて、コンバージョン率が1%や2%というのは、残りの人にとって全く響かなかったということを示すわけですが、ユーザーをロイヤルカスタマーなどに分解する考え方は、言うなれば事業者側が勝手に判断したコンテキスト情報である、購入頻度や年間購入金額などにより判断されているだけであって、今後はユーザ側からみたコンテキスト情報が必要になってくるわけです。

ソーシャルマーケティングなども流行っているわけですが、ソーシャルメディア上のテキスト情報というのは、コンテキストから人が反応した結果であって、理由ではないのです。

その意味において、企業はより人間のリアル側の情報をいかに取得するかが重要となるのではないかと考えています。

現在、機械は人間の5感の中で視覚が重視されているものの、その他の感覚も含めてデジタルデータ化できるだけでなく、足のような身体的な動きをセンサーによってデジタル化することができます。その分析手段はまだ弱いのかもしれませんが。

また人間が知覚し得ない(?)、方角・磁場、電波などの情報もデジタルデータ化されています。
目的と行動のpredictionを常に意識し、どのデータがコンテキスト情報として有効なのかを考えるという意味では、現在、より人間そのものを知る必要性が出てきているのかもしれません。


コンテキストの時代―ウェアラブルがもたらす次の10年
ロバート・スコーブル シェル・イスラエル
日経BP社
売り上げランキング: 3,772

[読了]この1冊ですべてわかる CRMの基本

この1冊ですべてわかる CRMの基本CRMに関する本の中では事例や考え方だけでなく、分析手法や計算手法まで解説されていて、とても良い本です。

もちろん内容は基本的なものなのですが、顧客構造を把握するために、例えば「直近購入日」「再購入率」「リピート購入日間隔」「購入金額」「購入回数」「カテゴリー区分」「性年代別」「店舗別」などの軸でのといったものの紹介だけでなく、「デシル分析」や「デシル移動分析」、「顧客離反率分析」や「RFM」についても詳しく解説されています。

デシル分析をRでするならquantile関数を使って、こんな感じにするのでしょうか。

quantile( x , probs = seq(0.1,0.9,by=0.1))

RFM分析の項目に関しては、一般的な内容かとは思いますが、顧客分布をグラフで見ながらの判定など、復習にも良いのではないかと思います。

他にも実際の事例を読むことで、理解が進むようになっているので、オススメの本です。

[読了]メディア文化論 --メディアを学ぶ人のための15話 改訂版

メディア文化論 --メディアを学ぶ人のための15話 改訂版 (有斐閣アルマ)「メディア」に対して歴史的な背景と、思想、その変遷と対立を追っている本ですが、改訂版ということで2012年の発売までの比較的最近発生した出来事なども踏まえて書かれているため、911のテロだったり「アラブの春」、「アルジャジーラ」のグローバル的な注目などにも触れられています。

メディアとしての「テレビ」や「ラジオ」「携帯電話」などに注目して、その歴史を紐解くのも面白いですが、個人的にとても注目したのは、ラザースフェルドによるメディアの限定効果モデルに対する批判のあたりです。

主にテレビに対するものなのですが、ラザースフェルドによるメディアの限定効果もでるとは、一言で言ってしまうとコミュニケーションや社会構造の多元的なモデルによって、メディア効果が限定的だとするモデルなわけですが、社会構造の多次元とは即ち垂直的な権力関係が大きな力をもたらす次元構造と、水平的なコミュニケーションを示します。

それに対して数々の批判が起こるわけですが、一つ目は「議題設定機能」です。

これは現在テレビでもインターネットでも、おそらく他のメディアである雑誌やラジオなども含めて見られるものですが、例えば選挙の際に特定の議題を設定し、議論が集約されることによって、ある特定の論点を外したりするという機能です。

メディアが意識するにしても、しないにしても、この議題設定機能により世論的に(?)議論すべき内容ではない、またはメディア的に大衆受けしない議題は無視されることとなるのです。

また、二つ目の批判として、ノエルノイマンの「沈黙の螺旋モデル」があげられていますが、これはメディアによって多数派の意見がマスコミに認知され、報道されるに従って、少数派を段階的に圧倒していくという螺旋的なプロセスを示します。

これもなんとなく理解できるのではないでしょうか。
社会心理学的な実験などからも人が多数派の意見に反発して一人だけ、または少数グループとして対立意見を表明し、行動することは難しいとされますが、メディアによる報道が多数派を作り出すことによって、少数派をどんどん押し殺している可能性があるのです。

次に3つ目の批判ですが、「培養分析」があげられています。
これはメディアが流し続ける暴力シーンと長期にわたって接触し続けることで、累積的な仕方で人々の社会認識が変化していくような事象を指すのですが、これは現在で言うならば「ゲーム脳」というものだったり、もしかすると児ポ法絡みで報道されるものも含まれるかもしれません。

犯罪における予防ということで、「潜在犯」という概念が適切なのかどうかは分かりませんが、現在のメディアや国家における犯罪予防的な議論を見ている限り、この「培養分析」の概念が根底にあると言っても間違いではないかもしれません。

4つ目にあげられている批判は、「知識ギャップモデル」です。
これは高所得層と低所得層などでの情報取得の速さの違いを示します。テレビやインターネット、スマートフォンなどのテクノロジーは情報の伝達速度を速め、一瞬であると言っても良い状況になりました。

マクルーハン的には「グローバル・ヴィレッジ」の誕生とも言えるかもしれませんが、人が情報を伝えた瞬間には、そのリアクションが瞬時に発生するため、情報発信に際しては常に結果を意識する必要性が出てきたわけです。
話を元に戻すならば、そういったテクノロジー、今後はIoTも含まれて来ると思いますが、そういったテクノロジーの利用には、どうしても物理的なお金が必要となってくるため、グローバル・ヴィレッジの住人になるためには、ある程度の所得が必要であるということです。所謂「情報の非対称性」と言われるものだと言っても良いと思います。

5つ目の批判は「メディア依存モデル」です。
これは受け手 - メディア - 社会の3者の関係の中で、メディアに依存している度合いによって変化するというモデルですが、これも感覚的に理解できるものではないでしょうか?

同じ情報や同じ番組、同じインターネットサイトや一つの宗教などに所属し、その知識に触れ続けていることで、その行動は影響を受けるとされます。

どの批判モデルはメディア研究者という立場ではない私たちでも何となく納得できるところではありますし、「ゲーム脳」に代表されるように、インターネットメディアだけでなくテレビなどのマスメディアや、児ポ法に見られるように国という権力団体などの思想の根底にも見え隠れするものでもあります。

後半で書かれている「メディア・リテラシー」を考える上では重要な部分だと思いますが、現在、そして未来を捉えていく上でメディアが人に与える影響とは何か?という部分を考えるイイきっかけになりました。

インターネットという世界を大きく捉えると、マクルーハンで言う「クールメディア」であると言えるわけですが、即ち自分で何かの情報を求めなければ得られないというメディアです。
一方でウェブサイト単位で見るならば、Googleが尊ぶインターネットサイトとは「ホットメディア」、即ち現実世界で言うならば「授業」や「講義」と言われる、知識や情報を100%教わり、それで全てを理解が出来るようなサイトです。
Googleはそのサイトに対し「Authority」という指標をもって判定をしていくわけです。

また、ウェブサイト内のコンテンツは、そのウェブサイトにゆるく所属をしてはいますが、切り出され、ユーザー、一人ひとりとのマッチングにより提示されたりしています。
GoogleのPlay Newsstandというアプリだったり、グノシーだったり、それをサービスとして提供しているものはいくつもあるでしょう。

あたかも一人ひとりには大学だったり、学部だったりといった所属だけでなく、興味関心から導かれる、所謂「タグ」が存在するわけで、そのタグ一つ一つとコンテンツの「距離」が計測され、接触したりしているわけです。

そこにインターネット批判的な意味で、知らず知らずの間に一つのコミュニティ的な輪が発生し、全く他の文化や思想、考え方などに接する機会を失ったりしているとも言えます。

タグ付が難しいウェブサイトに関しては、タグそのものを登録してもらうという作業をさせるウェブサイトであったり、キュレーターを沢山用意して、自分から「フォロー」するように促すウェブサイトなどが存在しています。

テレビに接触する時間が減り、より身近(24/7/365)なメディアであるスマートフォン・携帯電話であったり、物理的な場所がある程度固定される可能性が高いデスクトップPCなどへの接触時間が増えることによって、より「メディア依存モデル」が働く可能性が高くなっています。

日常的に「クールメディア」と思われる「ソーシャルメディア」と接する時間も増え、そこでコンテンツや思想がバズることは、「培養分析」の拡大と捉えることもできます。

今後インターネットという世界では、よりパーソナル化していく事が考えられ、広告の世界でもマーケティングの世界でも、個人の行動を予測することを目指しています。Amazonも実際の注文を予測し、物理的に近い配送センターでストックしておくことを目指していたりします。

未来の生活を妄想した動画はYouTubeで複数見ることが出来ると思いますが、物理的な生活においては、その人のいる場所、時刻、予定などを元に、例えば起きて鏡(メディア)の前で支度をしている間にも天気や日程が表示されるといった動画もあるでしょう。

インターネットにてサービスを行い飯を食っているという立場では、ウェブサイトのホットメディア化が即ちユーザーの中にAuthorityを確立し、何かのアクションを取るきっかけとなるのか?という点が非常に気になっています。

昨今、ザッポスをはじめ動画マーケティングが話題になることも多くなりました。
ウェブサイト1ページ分の文字情報以上に1分の動画のほうが得られるモノが多いこともあるでしょう。その意味において「動画」というメディアを再度考えるという意味で本書を読んで見るのも面白いと思います。

動画を見てから商品を購入する人も今後増えてくると思いますが、本書を読んで少し考えさせられたのが、「動画」というものが現実を再現するわけではなく、感覚を再現すると言っている点です。
最初その言葉を見た時「なぜだろう」と思ったわけですが、すぐに「共感覚」という言葉と結びつきました。

確かに動画は現実を再現するものという捉え方ではなく、「共感覚」を生むメディアだと捉えるべきでしょう。
それは今後3Dメディアが増えてもおそらく変わらないのかもしれません。ゲームのクォリティの綺麗さがいくら向上しても、そこから得られる共感覚の強さが、その後の意思決定に影響を及ぼすのかもしれません。

文字という記号ではエンコードの問題だったり、メディアの受け手によるデコードの問題が発生する可能性が高くても、動画であれば「共感覚」という感覚に直接的に訴えかけられ、その動画が意味するモノを再検討する必要性はないでしょう。
その意味においては文字という記号はクールメディアであり、動画はホットメディアと言えるかもしれません。

こう書いていても、おそらく私自身が書くに至った知識的なベースであったり、環境を共有していなければ、読む人のデコード時に全く正反対の意味に捉えられることもあるわけです。

ウェブサイトにおける「UX」や「UI」というものに関しても、本書を読みながら非常に考えさせられました。
凄くミクロ的な話になりますが、UIと一言で言うと雑ではありますが、クリック可能なボタンだったりプルダウンメニューであるといったUIの各要素一つ一つがマクルーハン的な「メディア」であるとするならば、その「メディア」から受け取るメッセージ・アフォーダンスとそのアフォーダンスを直感的に認識した結果発生する行動、そしてその行動に対するウェブサイト側のリアクションが「UX」だと言えると思います。

ウェブサイトにおけるUXは現実世界と紐付いていることが多いと思います。例えばクリック可能なボタンの見せ方だったり。
ただ、それは言ってしまえば「培養分析」と変わらず、何だかんだ言っても物理的な世界に対するインターネットメディアという構図があるからに他ならないでしょう。

つまり、もし仮にバーチャルな世界に滞在している時間が多くなればなるほど、UXの概念は大きく崩れる可能性があるのです。
ゲームの世界に何十時間も没入している人は、もしかすると現実世界におけるUXが大きく変わっているかもしれません。

そういう意味では、極端に言えば、ある特定の趣味がある人しか訪れないウェブサイトにとっては、一般的なウェブサイトにおけるUIの踏襲ではなく、その趣味のある人にしかわからないUIを採用することが最も重要になるのかもしれません。

ウェブサイト一つ一つが、それぞれ「インストラクション」と捉えてみるならば、その情報の送り手と受け手の存在だけでなく内容とコンテキストが重要となるわけですが、送り手が「一般的なウェブサイトである」と定義して提供したサービスと「料理好きが見るウェブサイトである」と定義して提供したサービスではUIの細部が異なるということです。

単純なファセットが料理に最適化されているだけで良いのかどうかを再検討してもよいでしょう。再検討しても良いのは恐らく送り手と受け手に共通するものが存在する場合というところでしょうか。

今後、インターネットはよりパーソナル化することにより、ウェブサイトのコンテンツがより流動的となり、ウェブサイトの中の1ページであるという認識よりも、自分が探していたページという意味で、インターネット自体が一人ひとりの「本」という概念に変わっていくと考えています。

検索エンジンは「索引」や「目次」というイメージです。
その本を常に持ち歩き、何かしたいときに必要なページを見るというような。

スマートフォンシェアが大きく上がっているのと同時に、ウェブサイトを読みやすくするといった「コンテンツを読む」ことに特化した機能がEvernoteだったりGoogleから提供されています。
それが進めるものは、ウェブサイトという単位の意識を薄くするというものではないでしょうか?

ややマクルーハン的な「メディア」の捉え方にはなりますが、メディアと行動、そして人の意思決定プロセスを再度捉え直すと結構面白いのかもしれないと思ったりしました。