scrapy - Scrapy 安全暂停和启动
问题描述
我知道我可以使用命令
scrapy crawl somespider -s JOBDIR=crawls/somespider-1
记录爬虫的运行信息,保证爬虫暂停后可以重新启动,会在当前暂停的位置继续爬取。
但是如果爬虫在服务器后台静默运行,是没有办法执行ctrl+c的
我知道的方式是 ps -df 找到爬虫的进程并 kill -s 9 id 以强制爬虫关闭的方式。但这不可避免地会打断爬虫的一些收尾工作。JOBDIR=crawls/somespider-1 下次启动时会丢失。我该怎么做才能安全地停止爬虫?
解决方案
根据kill提供的文档,可以使用kill -2 pid 安全停止爬虫相当于ctrl+c
推荐阅读
- c++ - 使用特定的以太网接口提升 asio 套接字多播发送数据
- javascript - DOTENV 未正确读取变量
- javascript - 用jquery在表中求和td值
- php - php联系表单输出问题
- assembly - 仅在长度为 12 的琴弦上的臂组件垃圾
- swift - 多个 UIPickerView 在 Swift 中以编程方式选择第一行
- laravel - Laravel API 路由不适用于 Postman
- mysql - MYSQL查询根据其他列值更改列值
- mysql - 如何删除 mysql 8.0 数据库中的多个事件?它在 5.7 中有效,但在 8.0 中无效?
- ubuntu - mongod 时出现分段错误(核心转储)