linux - wget - 下载每个网页包含的链接
问题描述
我正在学习 wget 和 httrack。我有以下困难:
我有一个网页列表,我正在尝试下载每个网页包含的链接
例如,我有下面的网页列表,我想下载每个网页中的链接内容:
http://www.un.org/en/sc/documents/resolutions/2010.shtml http://www.un.org/en/sc/documents/resolutions/2011.shtml
我使用了以下命令:
wget -r -c -nd -l2 -n --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" -erobots=off --no-check-certificate -P .~/Documentos/teste -i un.txt
我可以使用 wget 下载网页链接吗?输入指定的网页,下载此网页中链接的内容......还是只有像 selenium 这样的工具才能做到这一点?
此致!
解决方案
推荐阅读
- javascript - 如何根据 JavaScript 对象有条件地输出数据?
- spring - 从不同浏览器同时登录的用户...如何强制注销第一个用户
- django - 为什么 Django-CMS 不直接链接到我的 Cloudfront CDN 并为 CKEditors 静态文件获取 404?
- c++ - Raspberry Pi 3 上的 QML 性能
- amazon-redshift - Redshift:查询计划中的嵌套循环联接
- node.js - 为什么这行得通?Spotify API 调用 node.js
- powershell - 使用 powershell 编辑电子邮件并保留 HTML 格式
- python - 同时执行逻辑操作并添加新的数据框列?
- c++ - (C++, boost::variant) boost 变体映射的数据类型并对其执行数学运算
- android - 未找到默认活动 - Android Studio 3.3 中的错误