linux - Curl/Scrapy 绕过 Cloudflare 503 错误重定向
问题描述
我希望 Curl 在网站上等待几秒钟,然后将页面保存到文件中。或者我如何为“lynx”或“curl”设置等待时间?
当我抓取我的蜘蛛遇到的 URL 时,它们返回 503,然后重定向到下一页。我知道我们可以设置重定向 URL,但重定向 URL 和原始 URL 是相同的。
现在我可以用这个解决方案解决我的问题:对于curl
and lynx
,我设置了一个等待时间,直到进入重定向页面。此外,我发现了主要问题:Cloudflare 向我们返回了 503 重定向,并且它违反了机器人请求。另外,我使用 fromcloudflare-scrape
模块,但我有这个问题,还没有人修复它。
但我在 Google 或 Stackoverflow 上没有找到任何关于此问题的示例。
解决方案
推荐阅读
- mysql - timeout expired 从池中获取连接之前经过的超时时间
- c++ - 带有 glut/openGL 的绘图程序不起作用
- python - 在 Jupyter 笔记本中禁用上传
- python - 如果分辨率更改,则查找相似图像
- javascript - 未能运行“加入”语音通道命令时,我的机器人不会出错
- python - 在 Doc2Vec 标记化中保留数字
- html - WP网站上的CSS Bootstrap 4元素周围出现奇怪的紫色方块
- ios - 通过蓝牙上传固件在 iOS 中不起作用
- blazor - 部署网站后无法动态设置语言
- javascript - 蝗虫 io 和 javascript