刘刚刚的个人博客

celery-异步任务框架

创建时间:2020-10-10 00:12:54
更新时间:2020-10-10 00:12:54

celery是一个异步任务框架,可以进行异步任务队列、定时任务、延时任务的处理。

celery简介

Celery的架构由三部分组成:

  • 消息中间件(message broker):Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis等
  • 任务执行单元(worker):Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。
  • 任务执行结果存储(task result store)。Task result store用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括AMQP, redis等

celery安装

pip install celery

使用(用redis做中间件)

环境:python==3.6 ,在3.8中测试时启动有异常

异步任务

推荐将异步任务封装为包的形式进行使用,目录结构:

project
    ├── celery_task      # 包
    │   ├── __init__.py 
    │   ├── celery.py   # celery连接和配置相关文件,且名字必须叫celery.py
    │   └── task1.py    # 任务处理函数
    |   |__ task2.py     # 任务处理函数
    ├── add_task.py      # 添加任务
    └── get_result.py   # 获取结果

celery.py:

from celery import Celery

# 设置broker
broker = 'redis://127.0.0.1:6379/1'  

# 设置backend
backend = 'redis://127.0.0.1:6379/2' 

# 初始化
app = Celery(broker=broker, backend=backend, include=['celery_task.task1','celery_task.task2'])

task1.py

# 导入app
from .celery import app  
import time

@app.task
def low(n, m):
    print(n)
    print(m)
    time.sleep(1)
    print('n-m的结果:%s' % (n + m))
    return n - m   # 返回的结果将被存储到backend中

add_task.py 添加任务时,直接运行add_task.py即可

# 导入任务
from celery_task.task1 import low

# 添加指定的任务到消息队列,返回任务的id
res = low.delay(6,7)
print(res)

get_result.py 获取任务结果

from celery_task.celery import app

from celery.result import AsyncResult

id = '21325a40-9d32-44b5-a701-9a31cc3c74b5'
if __name__ == '__main__':
    async = AsyncResult(id=id, app=app)
    if async.successful():
        result = async.get()
        print(result)
    elif async.failed():
        print('任务失败')
    elif async.status == 'PENDING':
        print('任务等待中被执行')
    elif async.status == 'RETRY':
        print('任务异常后正在重试')
    elif async.status == 'STARTED':
        print('任务已经开始被执行')

启动任务(linux):

# 进入包所在的文件夹执行以下命令
celery worker -A 包名 -l info -P eventlet

启动任务(windows):

# 需要先安装enventlet模块,版本过高有可能报错
pip install enventlet==0.26.0

# 启动:
celery worker -A celery_task -l info -P eventlet

延时任务

延时任务改变任务的添加方式即可实现

add_task.py

from celery_task.task1 import low
from datetime import datetime, timedelta

eta=datetime.utcnow() + timedelta(seconds=10)
low.apply_async(args=(200, 50), eta=eta)

定时任务

定时任务包括两种:1.每隔多长时间运行一次 2.在固定的时间执行,比如每天或每周的某个时间

celery.py

from celery import Celery

broker = 'redis://127.0.0.1:6379/1'
backend = 'redis://127.0.0.1:6379/2'
app = Celery(broker=broker, backend=backend, include=['celery_task.task1'])


from datetime import timedelta
from celery.schedules import crontab
app.conf.beat_schedule = {
    'low-task': {
        'task': 'celery_task.task1.low',  # 选择要执行的任务
        'schedule': timedelta(seconds=3),  # 每隔多长时间执行一次
        # 'schedule': crontab(hour=8, day_of_week=1),  # 固定时间执行
        'args': (300, 150), # 任务需要传入的参数
    }
}

定时任务的启动:

celery beat -A 包名 -l info

路由

我的名片

昵称:shuta

职业:后台开发(python、php)

邮箱:648949076@qq.com

站点信息

建站时间: 2020/2/19
网站程序: ANTD PRO VUE + TP6.0
晋ICP备18007778号