今日からこのブログも2年目に入ります。
始めたのは昨年の今日11月30日です。
そして、気が付けば一日も休みこと無く続ける事が出来ました。
これも、ひとえに皆様のおかげと感謝致しております。
今後ともよろしくお願いいたします。
今日は、教室は無かったので、明日発行のメルマガの準備をしていました。
さて、今日は先日ご質問を頂いて、それにお答えする形で「Google Chromeの拡張機能 -Webpage Screenshot-」と言うのをご紹介させて頂きました。
縦長のウエブサイトの画面に表示されていない部分もキャプチャーする方法でしたが、ページによっては、うまくキャプチャー出来ないページがあるとのご報告を受けました。
うまく出来ないページはその縦幅が長すぎて写真も多く掲載されているために、ファイル容量がオーバーして、エラーになってしまうのではないかと考えます。
他の同様の拡張機能も試しましたが、やはりうまくいきませんでした。
そこで、画像として撮るのではなく、ページそのものを保存する事にしました。
ブラウザー自身にも保存機能はあります。
しかし、レイアウトが崩れたりしてうまく行きません。
そこで、今回もブラウザの拡張機能を使うことにします。
前回同様にGoogle Chromeにもサイトごと保存する拡張機能は有るのですが、使い勝手がいまいちなので、今回はFirefox(ファイヤーフォックス)と言う別のブラウザとその拡張機能を利用します。
ど、言うことで新たにFirefox(ファイヤーフォックス)というブラウザソフトをインストールする必要があります。
この方法については、このブログの次の所で初紹介しておりますので、ご参照下さい。
Firefox(ファイヤーフォックス)をインストールする
さて、今回はFirefox(ファイヤーフォックス)の拡張機能の「ScrapBook Plus」という物を使います。
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
https://addons.mozilla.org/ja/firefox/addon/scrapbook-plus/
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/057.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/061.gif)
「ソフトウエアのインストール」のダイヤログボックスが開きます。
「今すぐインストール」のボタンを押します。
インストールが完了しました。
Firefox(ファイヤーフォックス)を再起動します。
次の様なホップアップが現れますが、すぐに消えてしまいますので、消えた場合は、Firefox右上の「×」ボタンで閉じて、デスクトップ上のショートカットアイコンか、スタートメニューからFirefox(ファイヤーフォックス)を手動で起動して下さい。
Firefox(ファイヤーフォックス)が起動します。
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
「メニューバー」が表示されます。
ScrapBook Plusの設定
「メニューバー」の「ScrapBook Plus」を右クリックします。
「サイドバーに表示」をクリックします。
左サイドに「ScrapBook Plus」のウインドウが開きます。
ここからは、しばらく、 Firefox(ファイヤーフォックス)からは離れます。
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/061.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/061.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/061.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/061.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/344.gif)
「エクスプローラー」が開きます。
「ドキメント」に移動します。
先ほど作成した「ScrapBook」フォルダーを選択します。
「フォルダーの選択」ボタンをクリックします。
データの保存先フォルダが設定されました。
「OK」ボタンをクリックします。
「ScrapBook plus」の
アイコンをクリックします。
「新しいフォルダー」をクリックします。
「新規フォルダ」のダイヤログボックスが開きます。
「タイトル」欄に任意の名前を入力します・
「OK」ボタンをクリックします。
フォルダが出来ました。
「ScrapBook plus」は高機能で設定次第では色々名事ができますが、今回はブログの記事一覧からそれぞれのページのみをダウンロードしてみます。
ブログサービスによっては、写真のみが別のURL下に置かれている場合があります。
そのような場合はこの方法では写真がうまくダウンロード出来ない事もあります。
事実、今回の試したブログも写真はサムネイル画像しかダウンロードすることが出来ず、表示画像は劣化しました。
ページ毎にダウンロードすると元の写真をダウンロードすることも可能ですが、手間と時間がかかりすぎるため見送りました。
ダウンロードしたいブログの「記事タイトル一覧」のページを開きます。
(記事タイトル一覧のページが複数ページに渡っている場合は、一番最初が、最後のページでいいと思います。)
記事一覧から、タイトルの部分をマウスのドラッグ操作で選択します。
この時、どうしても不要な部分が選択されてしまうかも知れません。
今回の例でも、本来なら「旅行記のタイトル」の部分のみを選択したいのですが、どうしても右側の「エリア」のリンクも選択されてしまいます。
これは、後で処理をしますので、出来るだけ必要な部分のみになるようにします。
サイドバーの「ScrapBook Plus」の「ツール」をクリックします。
「URL一括取り込み」をクリックします。
「URL一括取り込み」のダイヤログボックスが開きます。
「フォルダ」欄横の
アイコンをクリックします。
「フォルダの選択」のダイヤログボックスが開きます。
先ほど「ScrapBook Plus」内で作成した「フォルダ」を選択します。
「OK」ボタンをクリックします。
「URL一括取り込み」のダイヤログボックスに戻ります。
「タイムアウト」の▼をクリックして「3」を選択します。
「URL検出ツール」のボタンをクリックします。
「選択範囲内のすべてのリンク」をクリックします。
リンクが検出されました。
「取り込む」ボタンをクリックします。
「取り込み」のダイヤログボックスが開きます。
ここで取り込まれたURLに注目すると、規則性があることがわかります。
赤で囲んだ所がブログタイトルのURLで、とそうで無いものURLには緑で囲んだ部分の文字列(「area」と言う文字)が必ず含まれている事がわかります。
次に、これを元にフィルターを掛けます。
拡大
「取り込み」のダイヤログボックス左下の「フィルタ」にチェックを入れます。
「フィルタ」欄が開きます。
ここで、先ほどの確認した文字列でフィルタリングをします。
今回は、入力欄に「area」と入れます。
「Include」となっているボタンの▼をクリックして「Exclude」を選択します。
今回は「area」とう文字列を含むURLを除外したいのでこの様にしました。
「Include」は含める。「Exclude」は除外する。と言う意味です。
フィルタ条件は複数設定可能です。
ここは色々と試行錯誤して下さい。
「適応」ボタンをクリックします。
フィルタ条件が設定され、ダウンロードする物だけにチェックが入りました。
「開始」ボタンをクリックします。
ダウンロードが開始されます。
ここからは結構時間がかかりますので、気長に待ちます。
ダウンロードが終了したページは、サイドバーにタイトルの一覧が表示されていきます。
ダウンロード終了すると、ほんの一瞬だけブラウザの右下に完了のホップアップが出ます。でも一瞬なので気が付かないと思います。
ダウンロードが終了すると、「取り込み」のダイヤログボックスが閉じますのでそれで判断します。
ブログのタイトル一覧が複数有る場合は、次の一覧ページに移って、上記の操作を繰り返してすべてのページをダウンロードします。
最初は一度にすべてのページをダウンロードするため、時間と手間が大変ですが、以降追加したページのタイトルのみを選んで同じフォルダにダウンロードするようにします。
更新があったページは上書きダウンロードすることで書き換わります。
ダウンロードしたページを見る
![](https://stat100.ameba.jp/blog/ucs/img/char/char2/057.gif)
リンク先のURLはインターネット上を参照しています。
したがって、インターネットに接続されたパソコンからはすべてのページを見ることができますが、インターネットに繋がっていないパソコンではリンク切れ状態となります。
今回はブログタイトルから一括でダウンロードしましたが、ページ毎にダウンロードすれば、リンク先も階層的にダウンロードすることが可能です。
しかし、ページが多いと手間と時間がそうとうかかります。
この辺りは各自の判断でお願いいまします。
また、このダウンロードする行為はサーバーに負荷をかけることになります。
使用はどうしても保存したいサイトか自分のブログのバックアップ等に留められる事をお願いします。
皆様にお願いです。
このブログのネタを募集いたしておえいます。
パソコン操作に関するご質問をお受けし可能な限りこの場でご紹介させて頂きたいと覆います。 ご協力の程よろしくお願いいたします。