首页 > 解决方案 > wget - 下载每个网页包含的链接

问题描述

我正在学习 wget 和 httrack。我有以下困难:

我有一个网页列表,我正在尝试下载每个网页包含的链接

例如,我有下面的网页列表,我想下载每个网页中的链接内容:

http://www.un.org/en/sc/documents/resolutions/2010.shtml http://www.un.org/en/sc/documents/resolutions/2011.shtml

我使用了以下命令:

wget -r -c -nd -l2 -n --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" -erobots=off --no-check-certificate   -P .~/Documentos/teste -i un.txt

我可以使用 wget 下载网页链接吗?输入指定的网页,下载此网页中链接的内容......还是只有像 selenium 这样的工具才能做到这一点?

此致!

标签: linuxshellwget

解决方案


推荐阅读