avatar

刘刚刚的blog

采菊东篱下,悠然见南山🦥

  • 首页
  • 大模型应用
  • 常用软件/工具
  • Halo
  • 关于
Home celery-异步任务框架
文章

celery-异步任务框架

Posted 2020-10-10 Updated 2024-12- 10
By Administrator
8~11 min read

celery是一个异步任务框架,可以进行异步任务队列、定时任务、延时任务的处理。


celery简介

Celery的架构由三部分组成:

  • 消息中间件(message broker):Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis等

  • 任务执行单元(worker):Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。

  • 任务执行结果存储(task result store)。Task result store用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括AMQP, redis等

celery安装

pip install celery

使用(用redis做中间件)

环境:python==3.6 ,在3.8中测试时启动有异常

异步任务

推荐将异步任务封装为包的形式进行使用,目录结构:

project
    ├── celery_task      # 包
    │   ├── __init__.py 
    │   ├── celery.py   # celery连接和配置相关文件,且名字必须叫celery.py
    │   └── task1.py    # 任务处理函数
    |   |__ task2.py     # 任务处理函数
    ├── add_task.py      # 添加任务
    └── get_result.py   # 获取结果

celery.py:

from celery import Celery

# 设置broker
broker = 'redis://127.0.0.1:6379/1'  

# 设置backend
backend = 'redis://127.0.0.1:6379/2' 

# 初始化
app = Celery(broker=broker, backend=backend, include=['celery_task.task1','celery_task.task2'])

task1.py

# 导入app
from .celery import app  
import time

@app.task
def low(n, m):
    print(n)
    print(m)
    time.sleep(1)
    print('n-m的结果:%s' % (n + m))
    return n - m   # 返回的结果将被存储到backend中

add_task.py 添加任务时,直接运行add_task.py即可

# 导入任务
from celery_task.task1 import low

# 添加指定的任务到消息队列,返回任务的id
res = low.delay(6,7)
print(res)

get_result.py 获取任务结果

from celery_task.celery import app

from celery.result import AsyncResult

id = '21325a40-9d32-44b5-a701-9a31cc3c74b5'
if __name__ == '__main__':
    async = AsyncResult(id=id, app=app)
    if async.successful():
        result = async.get()
        print(result)
    elif async.failed():
        print('任务失败')
    elif async.status == 'PENDING':
        print('任务等待中被执行')
    elif async.status == 'RETRY':
        print('任务异常后正在重试')
    elif async.status == 'STARTED':
        print('任务已经开始被执行')

启动任务(linux):

# 进入包所在的文件夹执行以下命令
celery worker -A 包名 -l info -P eventlet

启动任务(windows):

# 需要先安装enventlet模块,版本过高有可能报错
pip install enventlet==0.26.0

# 启动:
celery worker -A celery_task -l info -P eventlet

延时任务

延时任务改变任务的添加方式即可实现

add_task.py

from celery_task.task1 import low
from datetime import datetime, timedelta

eta=datetime.utcnow() + timedelta(seconds=10)
low.apply_async(args=(200, 50), eta=eta)

定时任务

定时任务包括两种:1.每隔多长时间运行一次 2.在固定的时间执行,比如每天或每周的某个时间

celery.py

from celery import Celery

broker = 'redis://127.0.0.1:6379/1'
backend = 'redis://127.0.0.1:6379/2'
app = Celery(broker=broker, backend=backend, include=['celery_task.task1'])


from datetime import timedelta
from celery.schedules import crontab
app.conf.beat_schedule = {
    'low-task': {
        'task': 'celery_task.task1.low',  # 选择要执行的任务
        'schedule': timedelta(seconds=3),  # 每隔多长时间执行一次
        # 'schedule': crontab(hour=8, day_of_week=1),  # 固定时间执行
        'args': (300, 150), # 任务需要传入的参数
    }
}

定时任务的启动:

celery beat -A 包名 -l info

路由

python
python
License:  CC BY 4.0
Share

Further Reading

Apr 21, 2025

Typing

类型注释让python 有了更好的编辑器提示功能。 基础使用 对函数参数和返回值,进行类型注释 def surface_area_of_cube(edge_length: float) -> str:    return f"The surface area of the cube is {6 *

Feb 25, 2025

python多进程多线程下的计数及日志打印

注意点: 需要保证在多进程内的进程锁是同一个 需要保证在单进程中的多线程内线程锁是同一个 # logger.py import multiprocessing import threading ​ ​ class Logger_test:    def __init__(self, process

Dec 25, 2022

python-迭代器、生成器、协程

迭代器 Python中当容器对象提供了对迭代的支持时,可以通过container.__iter__()来返回一个迭代器对象。 迭代器需要支持以下两个方法,这两个方法共同构成了迭代器协议: iterator.__iter__() 该方法返回迭代器本身,这个方法是配合for和in使用所必须的。 iter

OLDER

正则表达式--分好类,会更好记

NEWER

win10家庭版安装docker

Recently Updated

  • 文本切分-语义分割(Semantic Chunking)
  • dify 并发配置优化
  • Typing
  • 大模型返回中json_schema与json_mode的区别
  • Async

Trending Tags

Halo 运维 postgresql 设计模式 linux就该这么学 nas rag odoo python 文本切分

Contents

©2025 刘刚刚的blog. Some rights reserved.

Using the Halo theme Chirpy