python-3.x - 如果失败(链、link_error 和 get_leaf)如何等待 celery 任务?
问题描述
我正在使用 falcon 和 celery 编写后端,并且我使用具有相同逻辑的多个端点和各种对象,其中一个端点应该与相同的流程同步运行。
当发生可怕的事情并触发另一个任务优雅地完成时,流程是由多个带有 link_error 的链构建的。
如果链成功运行,则以下解决方案可以正常工作。
def on_post(self, req, res):
result = run_asynchronously()
leaf = result.get_leaf()
res.media = leaf.build_response()
如果在任务运行时发生异常,则会触发 link_error,执行其逻辑并触发清理以优雅地完成。error_handler(链中的link_error),get_leaf
返回异常而不是等待新触发的任务(在link_error中)结果。
关于如何让它工作的任何建议?
解决方案
推荐阅读
- reactjs - 条件路由 - 异步
- dialogflow-es - 如何在 api.ai 对话流中将用户查询从一个代理路由到其他代理
- python - 获取作为列表列表的输出
- asp.net - 接收值重置的类
- python - Python Cantera MassFlowController 不会从反应器中提取质量
- vb.net - VB.NET 上的导入和 DatabaseDataContext
- sql-server - SQL与Excel中的整数到日期转换问题
- linux - 匹配来自两个文件的字符串,并将第一个文件中匹配字符串的行追加到第二个文件的行尾
- javascript - 从正则表达式解析 css 伪元素内容
- oracle - 数据库触发器以验证节点是否为叶子节点