我需要一个程序,可以像下面那样提供一小部分URL(粘贴或在文件中),然后它必须能够抓取这些链接并保存某种类型的文件,例如图像。我试过一些蜘蛛,但是没有运气。
当前,下载所有内容的唯一方法是打开每个链接,然后使用“ DownThemAll!”。Firefox插件,用于选择页面上的所有图像(或任何文件类型)并下载。这可以一页一页地工作,但是我需要类似的东西来处理整个URL列表。
有没有人有什么建议??非常感谢。
PS。我还可以补充一点,它是一个相当容易使用的东西,具有一半的用户界面,并且不会从命令行运行。谢谢
http://www.someUrl.com/fhg/xbox/1/index.php?ccbill=123456
http://www.someUrl.com/fhg/allison_gf/1/index.php?ccbill=123456
http://www.someUrl.com/fhg/cookin/1/index.php?ccbill=123456
http://www.someUrl.com/fhg/blackjacket/1/index.php?ccbill=123456
Install-Package Select.HtmlToPdf
allison19
同someUrl
。淫!= P