python - Scrapy crawl 不遵循蜘蛛名称
问题描述
运行scrapy spider时出现问题。我有 3 个蜘蛛文件,其中 1 个我不使用,看起来像这样。蜘蛛1 蜘蛛2 蜘蛛3
我有 1 个主要蜘蛛 (spider1) 有一段时间现在运行良好,决定添加另一个蜘蛛 (spider3) 我刚刚创建了一个具有正确名称的新 .py 文件。一段时间以来一直致力于构建第二个蜘蛛,一切正常。现在我的问题是运行第一个蜘蛛。当我这样做 scrapy scraw spider1
时,它只运行第三个蜘蛛,我知道一切都正确命名。我尝试运行scrapy list
它只是开始运行第三个蜘蛛。我运行scrapy version
它只是运行第三个蜘蛛。如果我运行scrapy crawl RandomName
它,它也只会运行第三个蜘蛛。我尝试删除所有__pycahe__
文件仍然是相同的结果。我尝试在scrapy上卸载并重新安装仍然是相同的结果。
我需要做些settings.py
什么才能不忽略scrapy crawl
命令中的蜘蛛名称或其他命令吗?
我不需要同时运行 2 个蜘蛛或一个接一个,我只想听scrapy crawl
我试图调用的蜘蛛。
任何帮助将非常感激!
解决方案
推荐阅读
- c++ - 使用单例类作为派生类时如何访问基类中的函数
- typescript - 使用扩展运算符显式键入
- swift - 如何使用 Dispatch Groups 等待调用依赖于不同数据的多个函数?
- r - ggplot堆积条形图,条形图与两个不同的变量相关,百分比
- mysql - 在意外删除 AWS RDS 二进制日志后恢复 Debezium MySQL 连接器
- node.js - “RESTAPI-INVALIDREQ:(错误:FOER0000)无效请求:原因:uri urlList.json 的无效补丁:无效路径:/test/
- tensorflow - 为 tensorflow deeplab 运行 model_test.py 时的错误消息
- python - GAN 没有收敛。鉴别器损失不断增加
- r - 如何将单个标签添加到GGplot2中的堆叠条形图
- nginx - 在 WordPress 安装目录中使用智能 URL 的 Wep 页面