这个问题在这里已有答案:
如何提取网页的所有外部链接并将其保存到文件中?
如果有任何命令行工具会很棒。
这是相当同样的问题在这里,答案优雅地工作了google.com,但由于某种原因,它不与如YouTube的合作。我将解释一下:让我们以此页为例。如果我试着跑
lynx -dump http://www.youtube.com/playlist?list=PLAA9A2EFA0E3A2039&feature=plcp | awk '/http/{print $2}' | grep watch > links.txt
然后它,不像在google.com上使用它,首先执行lynx的转储,然后控制awk(出于某种原因使用空输入),最后不写入文件links.txt。只有在那之后它才显示lynx的非过滤转储,而无法将其转移到其他地方。
先感谢您!