首页 > 解决方案 > Scrapy crawl 不遵循蜘蛛名称

问题描述

运行scrapy spider时出现问题。我有 3 个蜘蛛文件,其中 1 个我不使用,看起来像这样。蜘蛛1 蜘蛛2 蜘蛛3

我有 1 个主要蜘蛛 (spider1) 有一段时间现在运行良好,决定添加另一个蜘蛛 (spider3) 我刚刚创建了一个具有正确名称的新 .py 文件。一段时间以来一直致力于构建第二个蜘蛛,一切正常。现在我的问题是运行第一个蜘蛛。当我这样做 scrapy scraw spider1时,它只运行第三个蜘蛛,我知道一切都正确命名。我尝试运行scrapy list它只是开始运行第三个蜘蛛。我运行scrapy version它只是运行第三个蜘蛛。如果我运行scrapy crawl RandomName它,它也只会运行第三个蜘蛛。我尝试删除所有__pycahe__文件仍然是相同的结果。我尝试在scrapy上卸载并重新安装仍然是相同的结果。

我需要做些settings.py什么才能不忽略scrapy crawl命令中的蜘蛛名称或其他命令吗?

我不需要同时运行 2 个蜘蛛或一个接一个,我只想听scrapy crawl我试图调用的蜘蛛。

任何帮助将非常感激!

标签: pythonscrapy

解决方案


推荐阅读