python - 是否可以暂停递归蜘蛛,直到所有线程都完成?
问题描述
我正在使用 Python Scrapy 递归地抓取多个整个网站。我想每抓取一个完整的网站就暂停我的蜘蛛。不幸的是,但很明显,如果我使用增量器进行操作,则很可能某些线程仍在进行中。所以这是我的问题,我们可以停止请求并等到仍在抓取的网站完成吗?
谢谢,
解决方案
推荐阅读
- django - Django-allauth 确认电子邮件消息重定向到不同的 URL
- batch-file - 批处理文件-命令-重命名文件夹的动态输入
- arrays - 如何在 x86 程序集中使用寄存器值作为数组元素偏移量?
- android - 使用 JSOUP 时出现 SSLPeerUnverifiedException
- salesforce - 当 LWC JS 中超过最大字符限制时,有没有办法在 Lightning 输入富文本字段中更改字体颜色?
- cookies - 如何根据同意 cookie 在 Nuxt 中控制 Google Analytics 跟踪?
- rxdb - 可以从现有的 graphql 模式生成 RxDB 模式吗?
- java - Java函数在打印时自身相乘?
- c - 多行 C 宏中使用的转义字符“\”有什么意义?
- .net - Redis 订阅真实性和重试