使用wget从远程HTTP文件夹下载所有文件


0

我想*.gif从特定位置下载所有文件。例如,假设位置为http://asdf.com/file/images/*.gif。当我使用时:

wget -m http://asdf.com/file/images/

我得到一个403 (permission denied)错误。但是当我使用时:

wget -m http://asdf.com/file/images/xyz.gif

它运作完美。大约有50张图片;如何下载?我不能写50条wget命令

shell  wget 

1
你知道文件名吗?
SLaks

2
不要转发您的问题。这与使用wget下载Image文件夹相同 。
马修·弗拉申

如果您知道文件名,这是微不足道的,特别是如果它们是顺序文件名(image001,image002等)
John T

@Matthew我认为这里的问题是这个家伙在stackoverflow.com和superuser.com上发布了相同的问题。自然,stackoverflow上的某个人将问题迁移到这里,并且重复了。
ghoppe

Answers:


5

这是不可能的。

wget 无法知道远程服务器上存在哪些文件。

相反,如果服务器启用了目录浏览,或者图像链接在某处,则可以抓取其他页面。


3

我不知道为什么没人建议wget -r。OP正在击中禁用了目录列表的服务器,但是经过此处的任何人都应该知道wget可以轻松处理递归提取。它甚至可以按文件类型过滤。


指向您回答我的问题。我确实是路过,忘记了那个标志,谢谢!
cincodenada

我刚刚了解到的一个警告:除非您想遍历父目录并下载整个该死的网站,否则请添加-np--no-parent标志,这样wget只会在树中下降。
cincodenada

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.