今回は「ブラウジング環境」、主にブラウザについてです。


Webブラウザとは、情報をサーバーに「要求」することからWebクライアント(依頼人の意)と呼ばれる。
広義にはユーザーエージェント (UA:User Agnet)と呼ぶこともある。


■Webブラウザの歴史
1993年 NCSA Mosaic
1994年 Netscape Navigator10.
1995年 Netscape Navigator 2.0
      ⇒フレーム、JavaScript 、クッキー(Cookie)などの機能搭載
1995年 Internet Explorer 1.0
2001年 Opera 6(日本語対応)
2004年 Mozilla Firefox 1(セキュリティの高さ、拡張性)
※MacOS Xの標準ブラウザとして「Safari」がある


■Webブラウザの仕組み
1.閲覧したいWebページのURLを指定
  (任意のWebサーバーにアクセス)
2.要求を受けたWebサーバーはHTMLの情報をWebブラウザに送信
3.WebブラウザがHTMLの情報を視覚的に処理して表示
  (=レンダリング

※レンダリングする機能はレンダリングエンジンと呼ばれ、
  ブラウザにより異なるため、表示結果が異なる場合がある


Webブラウザは、HTML文書の構造を解析し、テキストや画像を配置していくが、
詳細なデザインに関しては、CSS(Cascading Style Sheets:スタイルシート)
従って実行される。


尚、画像の形式は「GIF 」「JPEG」「PNG 」の3種類であり、
Webブラウザが標準で対応していない形式のデータは、
不明なファイルの種類tして扱われてしまう。

これは拡張機能(プラグイン )のインストールや再生アプリケーションを
用意することで、利用可能となる。



◆ポイント
1.1994年、ネットスケープ・コミュニケーションズ社からWebブラウザ
  「Netscape Navigator 1.0」がリリースされる
2.1995年、フレームやJavaScript、クッキーなどの独自拡張が搭載された
  「Netscape Navigator 2.0」がリリースされる
3.1995年、マイクロソフト社が「Internet Explorer 1.0」をリリース、
  98年からOSに標準搭載し、市場シェアが逆転する。


◆キーワード
1.ユーザーエージェント
2.Netscape Navigator
3.JavaScript
4.Internet Explorer
5.CSS
6.GIF、JPEG
7.PNG
8.プラグイン


ペタしてね

今回は「検索サービス」についてです。


インターネット利用の目的で最も多いのが「検索」。

広告代理店の電通が提唱した「AISAS」にもあるように、
一般ユーザーに浸透している。

「AISAS」
・Atention・・・注意喚起
・Interest・・・興味
・Search・・・検索・評価
・Action・・・購入
・Share・・・意見共有

その「検索」のためのサービスとして、「Yahoo!」「Google」「goo」「Excite」などがあるが、
世界で利用率が最も高いのは「Google」。
(日本では「Yahoo!」の利用率が最も高い)

Google以外はポータルサイト として運営されており、
検索だけでなく、ニュース、天気予報などの情報提供、
コミュニティやショッピングなど、各種サービスが利用出来る。


検索のシステムは「ディレクトリ型」と「ロボット型」に大別できる。

ディレクトリ型・・・手作業によるカテゴリ分け
ロボット型・・・クローラー /スパイダーと呼ばれる自動巡回プログラムが収集

クローラーはWebページのリンクを辿りながら、インデックス 化を行い、
データベースに蓄積していく。


GoogleはWebページの重要度や有効性を客観的に判断するため、
PageRank 」を公開している。

■ロボット検索
goo、Excite・・・Googleの検索エンジン
Yahoo!・・・自社開発「YST(Yahoo! Search Technology)


コンピュータでの検索方法は「全文検索 」と「キーワード検索」に大別することができ、
インターネットで利用される検索サービスの多くは、全文検索を採用している。

尚、全文検索には一文字ずつ調べていく方法とあらかじめ作成された
インデックスを照合していく方法があるが、インデックスによる方が高速処理される。

(一般的にポータルで使われている検索エンジンは「全文検索」のインデックスを
照合していく方法。「キーワード検索」は音楽の検索などで使われる。)

インデックスを作成しておく必要があるが、インデックスを作成するための
情報収集は更新頻度によって調整されているため、ニュースサイトなどは
収集されやすい。


作成されたインデックスを照合して検索結果が表示されるが、
表示順位を上げることを目的としたノウハウ「SEO(Search Engine Optimization) 」がある。

■SEOノウハウ例
・キーワードの登場頻度
・HTMLタグの重み付け

但し、キーワードの登場頻度を大量に記述するなど、過剰な対応をすると、
スパム行為 として判断され、対象から削除されてしまうこともあうので注意。



◆ポイント
1.検索のシステムは、手作業による「ディレクトリ型」と自動巡回プログラムによって
  収集、蓄積される「ロボット型」に大別できる。
2.ロボット型は、クローラーもしくはスパイダーと呼ばれるプログラムがインターネット上を
  巡回して自動的に情報を集める。
3.gooやExciteなどは、Googleの検索エンジンを採用、Yahoo!自社開発の「YST」を採用


◆キーワード
1.ポータルサイト
2.クローラー/スパイダー
3.PageRank
4.YST(Yahoo! Search Technology)
5.インデックス
6.全文検索
7.SEO(Search Engine Optimization)

ペタしてね

今回は「WWWの仕組み」についてです。

インターネットはTCP/IPという通信規約(プロトコル)を利用しているが、
Web(HTTP )やメール(POP、SMTP)、FTP、TELNETなどはTCP/IP上で
動くアプリケーションとして据えることができる。

WWWは、WebクライアントとWebサーバによって成っており、
そのやり取りに利用されるのがHTTP。

HTTPは、テキスト、画像、音声などのデータフォーマットを、
区別なく転送し、それを解釈するのはWebブラウザである。


1995年頃から個人Webサイトが急増するが、そのWebページは
HTML(Hyper Text Markup Language) 」で記述され、
プログラミングとは違い、タグを付けていくだけであった。

さらに、Webオーサリングツール などがリリースされ、
HTMLを知らないユーザーでも容易に作成することが出来るようになった。


作成したHTMLファイルはFTPを利用してWebサーバーに転送し、
その場所情報は「URL(Uniform Resource Locater) 」により示される。


このURLをWebブラウザに入力し、DNSサーバードメイン名
IPアドレスに変換され、Webサーバーにアクセスする。
Webサーバーより様々な情報を表示する仕組みになっている。


HTML1.0から始まり、1997年には「W3C(World Wide Web Consortium) 」によって策定された。

W3C・・・1994年にWWWに関する技術の標準化を推進するために設立された非営利組織

強制力は持たず「勧告」という形をとっているが、Web業界では「標準規格」としており、
積極的に採用している。
現在では「Web標準準拠」の意識が高まっている。

特に、Web制作に関連するHTMLやXHTMLXML 、CSS、DOMなどの仕様を確認する場合、
W3Cにて公開されている技術文書が役立つ。

XML・・・ユーザーがタグを自由に定義できる
XHTML・・・HTMLをXMLに準拠するために定義されたマークアップ言語



◆ポイント
1.Web(HTTP)やメール(POP、SMTP)、FTPなどはインターネット(TCP/IP)上で動く
  アプリケーションとして据えることが出来る。
2.WebブラウザとWebサーバーのやり取りに利用されているのはHTTPという
  プロトコルである。
3.URLを入力すると、DNSサーバーでドメイン名がIPアドレスに変換され、Webサーバーにアクセスする。


◆キーワード
1.HTTP
2.URL
3.DNSサーバー
4.ドメイン名
5.W3C
6.XML
7.HTML
8.XHTML

ペタしてね