1. 什么是celery?
Celery 是芹菜
Celery是基于python实现的模块, 用于执行异步定时周期任务的
其结构的组成是由
1. 用户任务app
2. 管道broker用于存储任务 官方推荐 redis rabbitMQ / backend 用于存储任务执行结构的
3. 员工worker
2. celery 的简单实例
![](https://images.cnblogs.com/OutliningIndicators/ContractedBlock.gif)
from celery import Celery import time #创建一个Celery实例,这就是我们用户的应用app my_task = Celery("tasks", broker="redis://127.0.0.1:6379", backend="redis://127.0.0.1:6379") # 为应用创建任务,func1 @my_task.task def func1(x, y): time.sleep(15) return x + y
![](https://images.cnblogs.com/OutliningIndicators/ContractedBlock.gif)
from s1 import func1 # 将任务交给Celery的Worker执行 res = func1.delay(2,4) #返回任务ID print(res.id)
![](https://images.cnblogs.com/OutliningIndicators/ContractedBlock.gif)
from celery.result import AsyncResult from s1 import my_task # 异步获取任务返回值 async_task = AsyncResult(id="31ec65e8-3995-4ee1-b3a8-1528400afd5a",app=my_task) # 判断异步任务是否执行成功 if async_task.successful(): #获取异步任务的返回值 result = async_task.get() print(result) else: print("任务还未执行完成")
我们要执行的任务是s1.py中, 也就是worker需要执行的任务, 所以worker就是s1.py了
现在我们就来启动worker
根据操作系统的不同, 启动方式也存在差异:
Linux: celery worker -A s1 -l INFO
windows : 这里需要注意的是celery 4.+ 已经不再对windows 操作系统提供支持了, 也就是在windows环境下出现问题除非自己解决, 否则官方是不会给你解决的
Windows : celery worker -A s1 -l INFO -P eventlet
ps : eventlet 是一个python的三方库 需要使用pip安装 pip install eventlet
启动完成, 其实在s1.py 当中, worker 已经知道了自己的broker 和 backend 在哪里了
接下来就让异步任务开始执行吧, 对了 s2.py 中就是使用 delay 的方式来开始执行的异步任务
执行s2.py 得到了一个字符串 55a84ea3-afa4-4ab9-8650-40e156c07441 这个字符串就是异步任务的ID
在celery worker 的控制台可以看到这个样子
等待15秒钟之后就可以的到这样一个字符串
然后通过s3.py修改异步任务的ID来获取任务返回的结果
这样就简单完成了一个Celery异步任务了
3.Celery 结合 Flask 模拟"抢购"系统
https://pan.baidu.com/s/15T08QUBYWqi8QjE0sPUBlg
下载源码查看示例
4. celery 项目目录
在实际项目中我们应用celery是有规则的
要满足这样的条件才可以哦, 目录Celery_task这个名字可以随意起, 但是一定要注意在这个目录下一定要有一个celery.py这个文件
![](https://images.cnblogs.com/OutliningIndicators/ContractedBlock.gif)
from celery import Celery celery_task = Celery("task", broker="redis://127.0.0.1:6379", backend="redis://127.0.0.1:6379", include=["Celery_task.task_one","Celery_task.task_two"]) # include 这个参数适用于寻找目录中所有的task
![](https://images.cnblogs.com/OutliningIndicators/ContractedBlock.gif)
from .celery import celery_task import time @celery_task.task def one(x,y): time.sleep(5) return f"task_one {x+y}"
![](https://images.cnblogs.com/OutliningIndicators/ContractedBlock.gif)
from .celery import celery_task import time @celery_task.task def two(x,y): time.sleep(5) return f"task_two {x+y}"
这样Celery项目目录结构就已经做好了然后再 my_celery中调用
from Celery_task.task_one import one from Celery_task.task_two import two one.delay(10,10) two.delay(20,20)
PS : 启动worker 的时候无需在使用文件启动, 直接启动你的Celery_task目录就行了
celery worker -A celery_task -l INFO -P eventlet
这样celery 就可以自动的去检测当前目录下所有的task了, 通过 include 这个参数逐一去寻找
5. celery定时任务
我们还使用Celery_task这个示例来修改一下
my_celery中进行一下小修改
![](https://images.cnblogs.com/OutliningIndicators/ContractedBlock.gif)
from Celery_task.task_one import one from Celery_task.task_two import two # one.delay(10,10) # two.delay(20,20) # 定时任务我们不在使用delay这个方法了,delay是立即交给task 去执行 # 现在我们使用apply_async定时执行 #首先我们要先给task一个执行任务的时间 import datetime,time # 获取当前时间 此时间为东八区时间 ctime = time.time() # 将当前的东八区时间改为 UTC时间 注意这里一定是UTC时间,没有其他说法 utc_time = datetime.datetime.utcfromtimestamp(ctime) # 为当前时间增加 10 秒 add_time = datetime.timedelta(seconds=10) action_time = utc_time + add_time # action_time 就是当前时间未来10秒之后的时间 #现在我们使用apply_async定时执行 res = one.apply_async(args=(10,10),eta=action_time) print(res.id) #这样原本延迟5秒执行的One函数现在就要在10秒钟以后执行了
定时任务只能被执行一次,那如果我想每隔10秒都去执行一次这个任务怎么办呢? 周期任务来了
6. celery 周期任务
首先要对Celery_task中的celery.py进行一点修改:
![](https://images.cnblogs.com/OutliningIndicators/ContractedBlock.gif)
from celery import Celery from celery.schedules import crontab celery_task = Celery("task", broker="redis://127.0.0.1:6379", backend="redis://127.0.0.1:6379", include=["Celery_task.task_one","Celery_task.task_two"]) #我要要对beat任务生产做一个配置,这个配置的意思就是每10秒执行一次Celery_task.task_one任务参数是(10,10) celery_task.conf.beat_schedule={ "each10s_task":{ "task":"Celery_task.task_one.one", "schedule":10, # 每10秒钟执行一次 "args":(10,10) }, "each1m_task": { "task": "Celery_task.task_one.one", "schedule": crontab(minute=1), # 每一分钟执行一次 "args": (10, 10) }, "each24hours_task": { "task": "Celery_task.task_one.one", "schedule": crontab(hour=24), # 每24小时执行一次 "args": (10, 10) } } #以上配置完成之后,还有一点非常重要 # 不能直接创建Worker了,因为我们要执行周期任务,所以首先要先有一个任务的生产方 # celery beat -A Celery_task # celery worker -A Celery_task -l INFO -P eventlet
创建Worker 的方式并没有发生变化, 但是这里注意的是,每间隔一定时间后需要生产出来任务给worker去执行, 这里需要一个生产者 beat
celery beat -A Celery_task # 创建生产者beat 你的schedule 写在哪里, 就是从哪里启动
celery worker - A Celery_task -l INFO -P eventlet
创建worker 之后, 没10秒就会由beat 创建一个任务给 worker 去执行