原文:O'Reilly "What Is Web2.0"の3ページ目の要約です。
http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html?page=3
関連
O'Reilly "What Is Web2.0"を要約してみる その1
O'Reilly "What Is Web2.0"を要約してみる その2
Blogging and the Wisdom of Crowds
One of the most highly touted features of the Web 2.0 era is the rise of blogging. Personal home pages have been around since the early days of the web, and the personal diary and daily opinion column around much longer than that, so just what is the fuss all about?
・ブログとみんなの知恵
Web2.0時代の特徴をもっともあらわしているのは、ブログの勃興です。個人ホームページは、Webの早い時期からあり、個人の日記や、日記形式のコラムはそれより長く存在してきました。では、何を大騒ぎしているのでしょう?
At its most basic, a blog is just a personal home page in diary format. But as Rich Skrenta notes, the chronological organization of a blog "seems like a trivial difference, but it drives an entirely different delivery, advertising and value chain."
基本的に、ブログは日記形式の個人ホームページです。しかし、Rich Skrentaは、「時系列に生成されるブログには、ちょっとした違いしかないようにしか見えないかもしれない。けれど、ブログは全体として、配信、広告、そしてバリューチェーンに違いをもたらしている」と述べています。
One of the things that has made a difference is a technology called RSS. RSS is the most significant advance in the fundamental architecture of the web since early hackers realized that CGI could be used to create database-backed websites. RSS allows someone to link not just to a page, but to subscribe to it, with notification every time that page changes. Skrenta calls this "the incremental web." Others call it the "live web".
そのような違いをもたらしたもののひとつは、RSSと呼ばれる技術です。RSSは、Webの基本構造に進歩をもたらした重要な技術です。Webの初期に、CGIを使ってデータベースと連動したWebサイトを構築できるとハッカーが知って以来の重要な技術です。RSSはページにリンクをはるのではなく、更新通知とともにページの購読を可能にしてくれます。Skrentaはこのことを、「インクリメンタルウェブ(ウェブの増大?)」と表現し、他の人は「ライブウェブ(生放送みたいな感じ?)」と表現します。
Now, of course, "dynamic websites" (i.e., database-backed sites with dynamically generated content) replaced static web pages well over ten years ago. What's dynamic about the live web are not just the pages, but the links. A link to a weblog is expected to point to a perennially changing page, with "permalinks" for any individual entry, and notification for each change. An RSS feed is thus a much stronger link than, say a bookmark or a link to a single page.
もちろん現在、十年以上をかけて「動的なWebサイト」(データベースと連動して、動的にコンテンツを生成するWebサイト)が、静的なWebサイトに取って代わりました。ライブウェブの何が動的かというと、ページが動的なのではなく、リンクが動的なのです。ウェブログへのリンクは、変わり続けるページに対するリンクです。個々のエントリーにたいしてはパーマリンクが使われ、それぞれページの更新に対しては通知が来ます。それゆえ、RSSフィードはブックマークや、単一のページに対するリンクよりも、つながりが強いのです。
RSS also means that the web browser is not the only means of viewing a web page. While some RSS aggregators, such as Bloglines, are web-based, others are desktop clients, and still others allow users of portable devices to subscribe to constantly updated content.
RSSは、WebブラウザーがWebページを見るための唯一の手段ではないということも意味します。BloglinesのようないくつかのRSSリーダーはWebベースだが、他のRSSリーダーはデスクトップのクライアントソフトです。また別のリーダーは、携帯端末の利用者が、定期的に更新されるコンテンツを購読できるようにしています。
RSS is now being used to push not just notices of new blog entries, but also all kinds of data updates, including stock quotes, weather data, and photo availability. This use is actually a return to one of its roots: RSS was born in 1997 out of the confluence of Dave Winer's "Really Simple Syndication" technology, used to push out blog updates, and Netscape's "Rich Site Summary", which allowed users to create custom Netscape home pages with regularly updated data flows. Netscape lost interest, and the technology was carried forward by blogging pioneer Userland, Winer's company. In the current crop of applications, we see, though, the heritage of both parents.
RSSは、ブログの新しいエントリーを通知するだけではなく、株式市場の情報や、天気情報、写真など、更新される様々な情報分野に進出しつつあります。
But RSS is only part of what makes a weblog different from an ordinary web page. Tom Coates remarks on the significance of the permalink:
しかし、他の一般的なWebページとブログの違いをもたらしているものはRSSだけではありません。Tom Coatesは、パーマリンクの重要性について述べています。
It may seem like a trivial piece of functionality now, but it was effectively the device that turned weblogs from an ease-of-publishing phenomenon into a conversational mess of overlapping communities. For the first time it became relatively easy to gesture directly at a highly specific post on someone else's site and talk about it. Discussion emerged. Chat emerged. And - as a result - friendships emerged or became more entrenched. The permalink was the first - and most successful - attempt to build bridges between weblogs.
パーマリンクは、今やありふれた機能にみえるかもしれません。しかし、バーマリンクは、ブログが、簡単に情報を発信できる媒体から、コミュニティへ変化するのに効果的を果たしました。はじめ、パーマリンクは、他の人のサイトの特定の投稿に対して意見を表明し、話すことを簡単にしました。そして議論がはじまりました。チャットがはじまりました。そして、結果として、友情が芽生え、強固なものになりました。パーマリンクは、はじめての、そして最も成功したブログ同士を繋ぐ橋なのです。
In many ways, the combination of RSS and permalinks adds many of the features of NNTP, the Network News Protocol of the Usenet, onto HTTP, the web protocol. The "blogosphere" can be thought of as a new, peer-to-peer equivalent to Usenet and bulletin-boards, the conversational watering holes of the early internet. Not only can people subscribe to each others' sites, and easily link to individual comments on a page, but also, via a mechanism known as trackbacks, they can see when anyone else links to their pages, and can respond, either with reciprocal links, or by adding comments.
多くの方法で、RSSの組み合わせやパーマリンクがNNTP(the Network News Protocol of the Usenet)に様々な特徴を付け加えました。”ブログ界(blogosphere)”は、パソコン通信や掲示板とならぶ、新しい対話形式だと考えることもできます。人々が、それぞれのサイトを購読し、簡単に個人のコメントにリンクできるというだけではなく、トラックバックとして知られている仕組み経由で、いつページにリンクを貼ったのか知ることができるし、相互リンクや、コメントによって、反応することもできます。
Interestingly, two-way links were the goal of early hypertext systems like Xanadu. Hypertext purists have celebrated trackbacks as a step towards two way links. But note that trackbacks are not properly two-way--rather, they are really (potentially) symmetrical one-way links that create the effect of two way links. The difference may seem subtle, but in practice it is enormous. Social networking systems like Friendster, Orkut, and LinkedIn, which require acknowledgment by the recipient in order to establish a connection, lack the same scalability as the web. As noted by Caterina Fake, co-founder of the Flickr photo sharing service, attention is only coincidentally reciprocal. (Flickr thus allows users to set watch lists--any user can subscribe to any other user's photostream via RSS. The object of attention is notified, but does not have to approve the connection.)
興味深いことに、2方向のリンクは、Xanaduのような、初期のハイパーテキストシステムの目標でした。ハイパーテキストの清教徒たちは、トラックバックを、2方向のリンクへのステップとして祝福ました。しかし、トラックバックは適切には2方向というより、むしろ、2方向のリンクを作り出す効果のある対称的な1方向のリンクです。この違いは、些細なものに思えるかもしれませんが、実際には大きなものです。Friendster、Orkut、LinkedInのようなソーシャルネットワークは、つながりをつくるために、受取人の承認を必要とし、Webと同等の規模が欠けています。
Flickrの共同設立者、Caterina Fakeが指摘しているように、招待は偶然に相互がつながることによってしか成立しません。(だから、Flickrはユーザーにウォッチリストを作ることを認めています。どんなユーザーもRSS経由で他の人の写真をみることができます。招待は通知されません。しかし、接続を承認する必要もありません)
If an essential part of Web 2.0 is harnessing collective intelligence, turning the web into a kind of global brain, the blogosphere is the equivalent of constant mental chatter in the forebrain, the voice we hear in all of our heads. It may not reflect the deep structure of the brain, which is often unconscious, but is instead the equivalent of conscious thought. And as a reflection of conscious thought and attention, the blogosphere has begun to have a powerful effect.
Web2.0の本質的な部分が、集合的な知識を利用することだとするなら、Webをある種、世界の頭脳へと変化させ、ブログ界は脳の定期的な精神活動、我々が聞いた物事の総体と同等の存在になります。それは深層心理を反映させたものではないでしょう。しかし、意識的な思考とは同等なものにはなるでしょう。そして、意識的な思考や注意の反映として、ブログ界は大きな影響力を持ち始めています。
First, because search engines use link structure to help predict useful pages, bloggers, as the most prolific and timely linkers, have a disproportionate role in shaping search engine results. Second, because the blogging community is so highly self-referential, bloggers paying attention to other bloggers magnifies their visibility and power. The "echo chamber" that critics decry is also an amplifier.
まず、サーチエンジンは、有益なページを予測するのにリンク構造を用いており、ブロガーは、最も多産で時機を得たリンクを貼ることで、サーチ結果を洗練させることに大きな役割を果たしています。次に、ブログコミュニティは、かなり自分と関係しているので、ブロガーたちは、他のブロガーに注目し、知名度や力を拡大します。批評家が「エコー室」と非難したものは、拡声器でもあるのです。
If it were merely an amplifier, blogging would be uninteresting. But like Wikipedia, blogging harnesses collective intelligence as a kind of filter. What James Suriowecki calls "the wisdom of crowds" comes into play, and much as PageRank produces better results than analysis of any individual document, the collective attention of the blogosphere selects for value.
単に拡声器というだけであるなら、ブログはつまらないものでしょう。しかし、Wikipediaのように、ブログはある種のフィルターとして、集合的な知識を利用しています。James Surioweckiが”the wisdom of Crowds”と呼んだものが実現しています。ページランクが個々のドキュメントを分析するよりも、より良い結果をもたらしたように、ブログ界みんなの注意が、価値あるものをえり分けています。
While mainstream media may see individual blogs as competitors, what is really unnerving is that the competition is with the blogosphere as a whole. This is not just a competition between sites, but a competition between business models. The world of Web 2.0 is also the world of what Dan Gillmor calls "we, the media," a world in which "the former audience", not a few people in a back room, decides what's important.
主流のメディアが個人ブログを競合とみなしているかもしれない一方で、本当に驚くのは、ブログ界全体のなかにも競争があることです。単純に、サイト間に競争があると言うことではなく、ビジネスモデルの間に競争があります。Web2.0の世界は、Dan Gillmorが言うように、「我々がメディアである」という世界でもあります。そこでは、裏方のわずかな人々ではなく、「前にいる聴衆」によって何が重要か決定されます。
3. Data is the Next Intel Inside
Every significant internet application to date has been backed by a specialized database: Google's web crawl, Yahoo!'s directory (and web crawl), Amazon's database of products, eBay's database of products and sellers, MapQuest's map databases, Napster's distributed song database. As Hal Varian remarked in a personal conversation last year, "SQL is the new HTML." Database management is a core competency of Web 2.0 companies, so much so that we have sometimes referred to these applications as "infoware" rather than merely software
3.データが次のインテルインサイド
グーグルのクローラー、ヤフーのディレクトリ(クローラー)などなど、重要なインターネットアプリケーションの背後には、専門のデータベースがあります。Hal Varianは、去年、個人的な会話の中でこう言いました「SQLは新しいHTMLです」と。Web2.0企業のコアコンピタンスは、データ管理にあります。データ管理は非常に重要なので、我々がWeb2.0企業のアプリケーションを呼ぶときには、単にソフトウェアとよぶのではなしに、「インフォウェア」と呼ぶことがあります。
This fact leads to a key question: Who owns the data?
この事実は、重要な問いを投げかけます。「データは誰のものか?」
In the internet era, one can already see a number of cases where control over the database has led to market control and outsized financial returns. The monopoly on domain name registry initially granted by government fiat to Network Solutions (later purchased by Verisign) was one of the first great moneymakers of the internet. While we've argued that business advantage via controlling software APIs is much more difficult in the age of the internet, control of key data sources is not, especially if those data sources are expensive to create or amenable to increasing returns via network effects.
インターネット時代には、データベースのコントロールが、市場をコントロールし、莫大な収益をもたらしている事例がたくさんあります。ドメインネームの登記の独占が、政府の認可から、Network Solutionに譲渡された(後に、Verisignが購入)のは、インターネットで金儲けをした初期の一つの事例です。インターネット時代に、ソフトウェアAPIのコントロールを経由してビジネス上の優位を築くことは非常に難しいですが、重要なデータソースをコントロールするのは難しくはありません。特に、データソースを作るのにお金がかかったり、ネットワーク効果によって収益が増加するようなデータの場合であってもです。
Look at the copyright notices at the base of every map served by MapQuest, maps.yahoo.com, maps.msn.com, or maps.google.com, and you'll see the line "Maps copyright NavTeq, TeleAtlas," or with the new satellite imagery services, "Images copyright Digital Globe." These companies made substantial investments in their databases (NavTeq alone reportedly invested $750 million to build their database of street addresses and directions. Digital Globe spent $500 million to launch their own satellite to improve on government-supplied imagery.) NavTeq has gone so far as to imitate Intel's familiar Intel Inside logo: Cars with navigation systems bear the imprint, "NavTeq Onboard." Data is indeed the Intel Inside of these applications, a sole source component in systems whose software infrastructure is largely open source or otherwise commodified.
マップクエスト・ヤフーマップ・MSNマップ・グーグルマップなど、全ての地図についての著作権を見てみましょう。そこには"Maps copyright NavTeq, TeleAtlas,"とか、"Maps copyright NavTeq, TeleAtlas," とか書いてあるでしょう。これらの企業は、自社のデータベースに十分な投資をしています(NavTeqは、住所データベースに7億5000万ドルの投資をしています。Digital Globeは、衛星の打ち上げに5億ドルの投資をしています)NavTeqはインテルのインテル・インサイドのロゴを真似て、カーナビをつけている車に「NavTeq Onboard」とプリントしています。実際、こうしたアプリケーションにとって、データはインテル・インサイドなのです。ソフトウェアに含まれるそれぞれのソースコンポーネントの多くはオープンソースであるか、そうでなければ、コモディティ化したものです。
The now hotly contested web mapping arena demonstrates how a failure to understand the importance of owning an application's core data will eventually undercut its competitive position. MapQuest pioneered the web mapping category in 1995, yet when Yahoo!, and then Microsoft, and most recently Google, decided to enter the market, they were easily able to offer a competing application simply by licensing the same data.
現在、激しく争っているWebマップの分野は、アプリケーションのコアとなるデータの重要性を理解することに失敗すると、競争優位を失うということを示しています。MapQuestはWebマップ市場の先駆者で、1995年に参入しました。そして、ヤフー、MSN、そして最近ではグーグルがこの分野に参入しました。単純に、同じデータをライセンスしてもらうだけでアプリケーションを開発することができました。
Contrast, however, the position of Amazon.com. Like competitors such as Barnesandnoble.com, its original database came from ISBN registry provider R.R. Bowker. But unlike MapQuest, Amazon relentlessly enhanced the data, adding publisher-supplied data such as cover images, table of contents, index, and sample material. Even more importantly, they harnessed their users to annotate the data, such that after ten years, Amazon, not Bowker, is the primary source for bibliographic data on books, a reference source for scholars and librarians as well as consumers. Amazon also introduced their own proprietary identifier, the ASIN, which corresponds to the ISBN where one is present, and creates an equivalent namespace for products without one. Effectively, Amazon "embraced and extended" their data suppliers.
しかしながら、対照的なのは、アマゾンです。Barnesandnoble.comのような競争相手のように、アマゾンのデータベースはR.R.BowkerのISBNから得ていました。しかし、MapQuestと違うのは、出版社からもたらされる様々なデータを付け加えて、絶え間なくデータの精度を高めていきました。なにより重要なのは、ユーザーを利用してデータに注釈をつけていったことです。それから10年が経ち、Browkerでなくアマゾンが本の主要な情報源になりました。消費者と同様に、学者や司書もアマゾンのデータを参照しています。アマゾンは、独自の本の分類方法も導入しました。ASINです。アマゾンは、効果的にデータの供給者を抱え込み、広げました。
Imagine if MapQuest had done the same thing, harnessing their users to annotate maps and directions, adding layers of value. It would have been much more difficult for competitors to enter the market just by licensing the base data.
MapQuestが、ユーザーに地図と案内に注釈をつけさせるという、アマゾンと同様のことをしていたらと想像してみてください。単純に、基礎となるデータをライセンスしてもらうだけで、競合他社が参入することは難しかったでしょう。
The recent introduction of Google Maps provides a living laboratory for the competition between application vendors and their data suppliers. Google's lightweight programming model has led to the creation of numerous value-added services in the form of mashups that link Google Maps with other internet-accessible data sources. Paul Rademacher's housingmaps.com, which combines Google Maps with Craigslist apartment rental and home purchase data to create an interactive housing search tool, is the pre-eminent example of such a mashup.
最近のグーグルマップの参入は、アプリケーションベンダーと、データ供給者の間の競争に、強烈な実験室を与えました。グーグルの軽いプログラミングモデルは、グーグルマップと、他のネット上のデータソースを組み合わせて新たな価値を提供する膨大なサービスをうみだしました。Paul Rademacherのhousingmaps.comは、グーグルマップとCraigslistの賃貸情報や、家の購買情報を組み合わせた、インタラクティブな家の検索ツールです。これは、マッシュアップ(リミックスみたいな意味)の著名な事例です。
At present, these mashups are mostly innovative experiments, done by hackers. But entrepreneurial activity follows close behind. And already, one can see that for at least one class of developer, Google has taken the role of data source away from Navteq and inserted themselves as a favored intermediary. We expect to see battles between data suppliers and application vendors in the next few years, as both realize just how important certain classes of data will become as building blocks for Web 2.0 applications
現在のハッカーによるこうしたマッシュアップは、革新的な体験です。しかし、企業家活動がすぐ後ろを追っています。そして、開発者にとってみれば、グーグルが、Navteqに変わって、データソースとしての地位を得て、自身が仲介者としてふるまっているようにみえます。データ供給者と、アプリケーションベンダーの双方が、Web2.0的なアプリケーションを構築する部品として、ある種のデータがいかに重要かを認識するにつれ、今後数年、データ提供者とアプリケーションベンダーの戦いが起こると考えています。
The race is on to own certain classes of core data: location, identity, calendaring of public events, product identifiers and namespaces. In many cases, where there is significant cost to create the data, there may be an opportunity for an Intel Inside style play, with a single source for the data. In others, the winner will be the company that first reaches critical mass via user aggregation, and turns that aggregated data into a system service.
地理情報など、ある種の重要なデータを得ることについて競争がおこります。多くの事例で、データを作ることに重要なコストがかかるところには、単一のデータソースだけで、インテル・インサイドのように振舞うチャンスがあります。ユーザーを集めて、はじめにクリティカルマスに達した企業が勝者となり、そして、システムサービスにデータをあつめます。
For example, in the area of identity, PayPal, Amazon's 1-click, and the millions of users of communications systems, may all be legitimate contenders to build a network-wide identity database. (In this regard, Google's recent attempt to use cell phone numbers as an identifier for Gmail accounts may be a step towards embracing and extending the phone system.) Meanwhile, startups like Sxip are exploring the potential of federated identity, in quest of a kind of "distributed 1-click" that will provide a seamless Web 2.0 identity subsystem. In the area of calendaring, EVDB is an attempt to build the world's largest shared calendar via a wiki-style architecture of participation. While the jury's still out on the success of any particular startup or approach, it's clear that standards and solutions in these areas, effectively turning certain classes of data into reliable subsystems of the "internet operating system", will enable the next generation of applications.
例えば、個人情報の分野では、PayPal、アマゾン1クリックや、多くのユーザーがいる場が個人情報のデータベースを構築する競合相手になるでしょう。(関連して、最近グーグルがGmailにログインする際に、携帯電話番号の使用を試みているのは、電話システムを取り込み、拡張するためのステップかもしれない)そうしている間に、Sxipのようなスタートアップ企業が、シームレスな個人認証のサブシステムとして、ある種の「分散型1クリック」を試み、統合的な個人認証の仕組みを作る可能性を模索しています。カレンダーの分野では、EVDBがwikiの仕組みを使って、世界中で予定を共有する試みをしています。
A further point must be noted with regard to data, and that is user concerns about privacy and their rights to their own data. In many of the early web applications, copyright is only loosely enforced. For example, Amazon lays claim to any reviews submitted to the site, but in the absence of enforcement, people may repost the same review elsewhere. However, as companies begin to realize that control over data may be their chief source of competitive advantage, we may see heightened attempts at control.
データに関して、さらに注目されなければならないポイントは、プライバシーや、個人情報を扱う権利について、ユーザーが関心を持っている点です。Webアプリケーションの初期において、著作権はあまり守られていませんでした。例えば、アマゾンは投稿されたレビューについての著作権を主張していますが、そこに強制力がなくては、他の場所に同じ投稿をしてしまいます。しかし、企業がデータをコントロールすることが、競争優位の源泉となることを認識するにつれ、我々はコントロールを強めるような試みを目の当たりにするかもしれません。
While the jury's still out on the success of any particular startup or approach, it's clear that standards and solutions in these areas, effectively turning certain classes of data into reliable subsystems of the "internet operating system", will enable the next generation of applications
陪審員のような分野で、スタートアップ企業や、新しいアプローチは成功していませんが、ある種のデータをインターネット上のサブシステムに効果的に変換する標準や、解決策作りは、次世代のアプリケーションが可能にするでしょう。
Much as the rise of proprietary software led to the Free Software movement, we expect the rise of proprietary databases to result in a Free Data movement within the next decade. One can see early signs of this countervailing trend in open data projects such as Wikipedia, the Creative Commons, and in software projects like Greasemonkey, which allow users to take control of how data is displayed on their computer.
所有権をもったソフトウェアの勃興が、フリーソフトウェアの運動を導いたように、所有権を持ったデータベースの勃興が、次の十年にフリーデータの運動をもたらすことを、我々は期待しています。WikipediaやCreative Commons、そして、グリースモンキーのようなソフトウェアに、オープンデータのトレンドの初期の兆候を見ることができます。こうした試みは、コンピューター上でデータをどのように表示するのかについての決定権をユーザーに与えます。