以下、プログラミング慣れてない人には呪文の羅列になります
逆にプロ(夫)から見るとツッコミどころ満載です
こーさんのお悩み(ブログのバックアップ)の件、
wgetとかコメントしたんですが、mac userなのでcurlで。
週末あたりに遊んでみました。
vi-bash-awk使いなので、こんな感じでコーディング。
使ったもの:curl, awk, sed, grep, md5など
慣れない処理にしては結構スッキリかけたと思います
(普段のコーディングはlinuxだしC言語でポインタ使いながらdoubleの多重配列をガンガン処理するお仕事です)
相変わらずコメントゼロのプログラミングなので夫に見られたら小言くらいますが。
vimとかbashとかも宗教戦争になるので危険ワードですね
ダウンロードしたのは、
・記事一覧(15ページ)
・記事(267ページ)
・画像(1267個)
・絵文字(62個)
です。
ブログテーマ一覧も吸い取れるように改良したいなぁ。
(次へとか前へもできないし、アメ限も無理です)
見た目はこんな感じ。
大元↓に比べると少々スッキリとします。
難点としては、このスクリプト、他の人の魚拓もとれてしまうのですよね
カプリさんたちのこの件があるので全文公開はできないです。
(逆に言うと、ちょっと知識があればWEB上の情報の吸い取りは簡単だということ)
リクエストあればアメ限で公開します!
あと、windowsはpowershellでおおよそ動くと思いますが細かいところは自分で直して
curl http~xxx.html > xxx.html を wget -O xxx.html http~xxx.htmlとかにしなきゃいけないのかな。