python - Celery SQS 任务失败后不会执行
问题描述
我们将 Celery 与 SQS 代理一起使用,问题是任务失败后,第一个失败的工作人员不会消耗另一个
该设置是具有 SQS 队列的单个工作人员,未配置结果后端。
在调试 Kombu SQS 传输时,我注意到该can_consume
方法返回 false https://github.com/celery/kombu/blob/master/kombu/transport/virtual/base.py#L191
这意味着传递的失败消息不会被删除
有谁知道可能导致它的原因?
解决方案
创建了一个错误修复 PR,它将在 celery==4.4.0 上发布
推荐阅读
- installation - glib 安装:在 x86_64bit ( 64bit ) 机器上安装 32bit Glib 库
- javascript - 说让声明被提升但未初始化是什么意思?
- javascript - 自动刷新 div 中的 PHP 重定向
- html - 如何使用用户坐标更改起始坐标?
- c - 使用C语言创建的txt文件中的间距问题
- java - 具有多个数据源和 jdbcTemplate 的 Spring Boot 应用程序的并发查询执行问题
- reporting-services - 以 SSAS 作为数据源性能瓶颈的 SSRS 报告
- scala - 无法通过 mapPartitions() 在变量中存储数据集的行元素
- r - 如何在 R 中使用 networkD3 在 SankeyDiagram 中的节点或链接中不显示值
- r - 如何解决使用 geom_polygon 和 geom_text 时不显示图例(用于填充)的问题?