celery

作者: 领带衬有黄金 | 来源:发表于2019-08-20 11:33 被阅读0次

    Django配置Celery执行异步任务和定时任务

    celery是一个基于python开发的简单、灵活且可靠的分布式任务队列框架,支持使用任务队列的方式在分布式的机器/进程/线程上执行任务调度。采用典型的生产者-消费者模型,主要由三部分组成:

    1. 消息队列broker:broker实际上就是一个MQ队列服务,可以使用Redis、RabbitMQ等作为broker
    2. 处理任务的消费者workers:broker通知worker队列中有任务,worker去队列中取出任务执行,每一个worker就是一个进程
    3. 存储结果的backend:执行结果存储在backend,默认也会存储在broker使用的MQ队列服务中,也可以单独配置用何种服务做backend

    异步任务

    比如系统上线前后台批量导入历史数据,发送短信、发送邮件等耗时的任务

    异步任务配置

    1.安装RabbitMQ,这里我们使用RabbitMQ作为broker,安装完成后默认启动了,也不需要其他任何配置

    # apt-get install rabbitmq-server
    

    mac 安装需要配置

    brew install rabbitmq
    

    启动rabbitmq-server

    rabbitmq-server
    
    修改环境变量
    cd ~
    vim .bash_profile
    在里面加入这段代码
    export PATH="$PATH:/usr/local/opt/rabbitmq/sbin"
    

    2.安装celery

    # pip3 install celery
    

    3.celery用在django项目中,django项目目录结构(简化)如下

    oa/
    |-- users
    |   |-- admin.py
    |   |-- apps.py
    |   |-- __init__.py
    |   |-- models.py
    |   |-- tasks.py
    |   |-- tests.py
    |   |-- urls.py
    |   `-- views.py
    |-- manage.py
    |-- README
    `-- oa
        |-- celery.py
        |-- __init__.py
        |-- settings.py
        |-- urls.py
        `-- wsgi.py
    

    4.创建oa/celery.py主文件

    from __future__ import absolute_import, unicode_literals
    import os
    from celery import Celery, platforms
    
    # set the default Django settings module for the 'celery' program.
    os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'oa.settings')
    
    app = Celery('cykj', backend=BROKER_URL, broker=BROKER_URL, include=['db.tasks'])  # 将定时任务注册到celery中
    
    # Using a string here means the worker don't have to serialize
    # the configuration object to child processes.
    # - namespace='CELERY' means all celery-related configuration keys
    #   should have a `CELERY_` prefix.
    app.config_from_object('django.conf:settings', namespace='CELERY')
    
    # Load task modules from all registered Django app configs.
    app.autodiscover_tasks()
    
    # 允许root 用户运行celery
    platforms.C_FORCE_ROOT = True
    
    @app.task(bind=True)
    def debug_task(self):
        print('Request: {0!r}'.format(self.request))
    

    5.在website/__init__.py文件中增加如下内容,确保django启动的时候这个app能够被加载到

    from __future__ import absolute_import
    
    # This will make sure the app is always imported when
    # Django starts so that shared_task will use this app.
    from .celery import app as celery_app
    
    __all__ = ['celery_app']
    

    6.各应用创建tasks.py文件,这里为deploy/tasks.py

    from __future__ import absolute_import
    from celery import shared_task
    from users.models import *
    
    @shared_task
    def add_users():
        for i in range(100):
            print(i)
            user = Users()
            user.name = f'用户{i}'
            user.mobile = f'0000{i}'
            user.save()
    
    • 注意tasks.py必须建在各app的根目录下,且只能叫tasks.py,不能随意命名

    7.views.py中引用使用这个tasks异步处理

    from users.tasks import add_users
    
    def init_users(request):
        add_users.delay()
        result_json = {}
        return JsonResponse(result_json, safe=False)
    
    • 使用函数名.delay()即可使函数异步执行
    • 可以通过result.ready()来判断任务是否完成处理
    • 如果任务抛出一个异常,使用result.get(timeout=1)可以重新抛出异常
    • 如果任务抛出一个异常,使用result.traceback可以获取原始的回溯信息

    8.启动celery

    # celery -A cykj worker -l info
    打印当前注册了的task:celery worker -A cykj --loglevel=DEBUG
    

    9.这样在调用post这个方法时,里边的add就可以异步处理了

    定时任务

    定时任务的使用场景就很普遍了,比如我需要定时发送报告给老板~

    定时任务配置

    1.oa/celery.py文件添加如下配置以支持定时任务crontab

    from celery.schedules import crontab
    
    app.conf.update(
        CELERYBEAT_SCHEDULE = {
            'sum-task': {
                'task': 'deploy.tasks.add',
                'schedule':  timedelta(seconds=20),
                'args': (5, 6)
            }
            'send-report': {
                'task': 'deploy.tasks.report',
                'schedule': crontab(hour=4, minute=30, day_of_week=1),
            }
        }
    )
    
    • 定义了两个task:

      • 名字为'sum-task'的task,每20秒执行一次add函数,并传了两个参数5和6
      • 名字为'send-report'的task,每周一早上4:30执行report函数
    • timedelta是datetime中的一个对象,需要from datetime import timedelta引入,有如下几个参数

      • days:天
      • seconds:秒
      • microseconds:微妙
      • milliseconds:毫秒
      • minutes:分
      • hours:小时
    • crontab的参数有:

      • month_of_year:月份
      • day_of_month:日期
      • day_of_week:周
      • hour:小时
      • minute:分钟
    1. deploy/tasks.py文件添加report方法:
    @shared_task
    def report():
        return 5
    

    3.启动celery beat,celery启动了一个beat进程一直在不断的判断是否有任务需要执行

    # celery -A cykj beat -l info
    

    Tips

    1. 如果你同时使用了异步任务和计划任务,有一种更简单的启动方式celery -A oa worker -b -l info,可同时启动worker和beat
    2. 如果使用的不是rabbitmq做队列那么需要在主配置文件中website/celery.py配置broker和backend,如下:
    # redis做MQ配置
    redis有密码的话
    BROKER_URL='redis://:xxxxx@39.106.229.165:6379/2' xxxxx是密码,前面必须有冒号
    app = Celery('website', backend='redis', broker='redis://localhost')
    # rabbitmq做MQ配置
    app = Celery('website', backend='amqp', broker='amqp://admin:admin@localhost')
    
    1. celery不能用root用户启动的话需要在主配置文件中添加platforms.C_FORCE_ROOT = True
    2. celery在长时间运行后可能出现内存泄漏,需要添加配置CELERYD_MAX_TASKS_PER_CHILD = 10,表示每个worker执行了多少个任务就死掉

    问题:

    AttributeError: 'str' object has no attribute 'items'
    查了好久发现原来是因为以前下的redis版本过高(   3.0.1   ),重装redis 
    pip install redis==2.10.6
    
    celery在4.x 不支持windows,所以celery使用:3.1.25
    

    相关文章

      网友评论

          本文标题:celery

          本文链接:https://www.haomeiwen.com/subject/sqofsctx.html