python - 如何整合来自不同计算机的 celery 日志。芹菜
问题描述
如何在 Celery 的单个文件中获取来自不同工作人员的日志。我有 3 个运行 python 任务的工作人员和一个运行代理的主节点。我想整合来自这些工作机器的日志并将其存储在主机中。我怎样才能做到这一点?
解决方案
我们将 AWS EC2 实例上的所有 Celery 工作人员配置为将 Celery 日志上传到 CloudWatch。这是实现您想要的一种方式。即使您不在 AWS 上,实施这种系统也不难——您所需要的只是在每台工作机器上运行的代理,该代理会定期将 Celery 日志上传到中心位置。它甚至可以是一个运行脚本的 cron 作业,为你完成这项工作。
推荐阅读
- java - 无法使用 Apache POI 写入和保存 XLSM 文件
- azure-devops - 如何从 dist 文件夹下载使用 azure-pipelines 中的 gulp 脚本构建的工件
- android - 带有 Camera2 的 Android RTL
- boost - CMake在编译caffe时找不到boost_python
- python - 自动更新字段的最佳做法是什么?
- laravel - 在验证之后和发送到控制器之前修改请求数据
- r - 当列作为字符对象输入时,如何使用 tidyverse select?
- git - 批量删除 Bitbucket 中的过时分支
- java - Gradle java 9+资源文件夹名称冲突
- angular - 如何在两个不同的日期选择器之间切换并根据条件选择一个来显示?