「アルゴリズム」に注目して、どのように研究者たちが数々の問題点に対して、新しいアルゴリズムを発明し、パソコンだけでなくインターネットの世界を変革してきたかが凄く分かりやすく記述されています。
最初の章で説明されている検索エンジンのIndexの仕組みとランキングの仕組みについて、古い知識ではあるものの非常に重要な概念が書かれており、小難しく説明されがちなランダムサーフィンモデルも非常に分かりやすく解説されています。所謂もともとのページランクの概念ですね。
過去の歴史を知ることで、その延長線上にある現在を再度認識することができます。
暗号化、データベースのレプリケーションやデータの整合性チェック、その他数々のアルゴリズムが登場します。
実際に運用されているアルゴリズムは非常に複雑化されていますが、本書では四則計算などで理解できるように、ベースとなる概念の説明に努めています。
言葉だけ走っているけれども、結局どういう動きをしているのだろうか?とか少し疑問に思っていた事が理解できた気がします。
今インターネットへつながる人やモノは爆発的に増加し、それに伴い発展途上の「インターネット」という仕組みに関しても、当初予想できなかったプライバシーなどのサードレール問題やセキュリティ、その他、国によって発生する宗教や言論などの問題など、様々な問題を抱えています。
W3CではOpen Web Platformということで、以下の8つの分野から議論を重ねていこうという動きがあります。
- Security and Privacy
- Core Web Design and Development
- Device Interaction
- Application Lifecycle
- Media and Real-Time Communications
- Performance and Tuning
- Usability and Accessibility
- Services
そしてインターネットへ参加する人が増えれば増えるほど、インターネットに参加する人のDivergenceが増し、所謂Heterogeneousからもたらされるイノベーションが増加するでしょう。
本書で予測されている以上に、二次関数的に新しいアルゴリズムが生まれ、広まっていく可能性が強まると予想されます。
最近のインターネットに関し、少しだけ妄想的に考えているのは、インターネットにおけるデザインとテキストの完全分離です。
昨今マーケティングオートメーションという言葉が広く使われておりますが、その中でユーザー一人ひとりに対し、バナーなどのコンテンツを変化させるというものがあります。
最近見たのがAdobeのAutomated Personalizationですが、これなんかを見ているとデザインとコンテンツの完全分離が妄想だと感じていたのに、すでに現実になりつつあるなと感じたりします。
僕の言う完全分離とはコンテンツそのものが、例えばJSON等で提供されるだけで、それをフロント側へどう描画するかはデザイン部門で制作するといった、HTMLそのものに対する変革といいますか、廃止といいますか。
いやたぶんコンテンツの描画という意味においてHTMLというものは無くならないのかもしれません。しかし、今のように不完全なHTMLソースによってブラウザが背負っているエラー処理の数々を考えるならば、ストレス無くインターネットを回遊させるという事自体に悪影響をもたらしている事は間違いないでしょう。
また、IoT的な世界においては、ほとんどがJSONのようなデータのやり取りが成され、そこに大小様々なネットワークが構築されていくでしょう。
そう考えると、IoTからもたらされるデータを使ってフロントで何かを動かしたり表示したり・・・と考えるならば完全にデザインとコンテンツは分離して管理を行っていく方が理にかなっていないかな?と感じたりします。
いや、むしろ既にJSONファイルを使ってコンテンツを生成していたり、グラフを表示していたりということは日常茶飯事に行われているわけですが、部分部分の採用ではなく完全に分離してしまうという感じです。
と大幅に本書の感想からはズレるわけですが、次どんなアルゴリズムを開発して、どのようにインターネット、そして社会へと貢献できるでしょうか?
0 コメント:
コメントを投稿