python - Scrapy:如何同时运行多个顺序爬取?
问题描述
我有 2 个网站 1 的
spider10
spider11
蜘蛛:和 2 个网站 2 的蜘蛛:
spider20
spider21
我想按顺序运行网站 1 spider10
,spider11
同时(同时)也按顺序spider20
运行spider21
网站 2。
我知道如何顺序运行两个蜘蛛:
runner = CrawlerRunner()
@defer.inlineCallbacks
def crawl():
yield runner.crawl(MySpider1)
yield runner.crawl(MySpider2)
reactor.stop()
crawl()
reactor.run()
同时:_
runner = CrawlerRunner()
runner.crawl(MySpider1)
runner.crawl(MySpider2)
d = runner.join()
d.addBoth(lambda _: reactor.stop())
reactor.run()
但是如何同时运行两组顺序蜘蛛呢?
解决方案
推荐阅读
- google-sheets - 当 SheetA 和 SheetB 中的单元格包含相同的文本时,从 SheetA 中的一个单元格获取结果
- mysql - 从表中删除伪重复项
- animation - Shapes moving on an HTML5 canvas when they're not supposed to: requestAnimationFrame()
- nginx - 了解 NGINX 默认缓存
- javascript - CORB 阻止 Google Places API 调用
- android - 使用get API调用android在listview中获取数据的问题
- javascript - 正确使用链接
- xsd - CXF 从 wsdl 生成 SEI 和 java 类
- assembly - 如何打印用户输入的字符串
- python - 更新打印文本