我有一个网站,我想下载该网站内的所有页面/链接。我想wget -r
在此URL上执行。没有链接位于该特定目录的“外部”,因此我不必担心下载整个Internet。
事实证明,我想要的页面位于网站的密码保护部分的后面。虽然我可以使用wget手动进行Cookie协商,但对我来说,仅从浏览器“登录”并使用一些firefox插件递归下载所有内容会容易得多。
是否有扩展程序或可以让我执行此操作的内容?许多扩展都专注于从页面获取媒体/图片(呵呵),但是我对所有内容都感兴趣-HTML和所有内容。
有什么建议吗?
谢谢!
编辑
DownThemAll似乎是一个不错的建议。可以递归下载吗?如上,下载页面上的所有链接,然后下载每个页面中包含的所有链接,等等?这样我基本上可以通过以下链接来镜像整个目录树?喜欢Kinda的-r
选项wget
吗?