ウェブサイトをコピーしたい
一昨日の続き。wget1.12でCSSから参照している画像もちゃんととれるのはいいんだけど、JavaScriptで参照している画像がとれないんです。マウスオーバの画像とか、先読みしている画像ファイルなどですね。
wgetのFAQにもちゃんと書いてあるんだけど、将来的にはなんとかするかもしれないけど、だってwgetってGUIじゃないし、JavaScriptなんかしらねぇし、といった感じ。
なので、別の手段で直接サーバから取り出すことにする。
WebDAV+Perl
取り出したいブツはZope上にあるのでWebDAVが使えるはず。大昔にかいたHTTP::DAVをつかったスクリプトを流用しようとしたんですが、なぜか認証が通らない。なぜだ。。しばらく調べるも断念。
ftp
じゃ、ftpだ。expectをつかってスクリプトをかくも、LinuxもSolarisもftpクライアントには再帰的にファイルをgetする能力がないことが判明。ディレクトリ以下をとってきてくれないんですよね。