翼度科技»论坛 编程开发 python 查看内容

Django 如何使用 Celery 完成异步任务或定时任务

2

主题

2

帖子

6

积分

新手上路

Rank: 1

积分
6
以前版本的 Celery 需要一个单独的库(django-celery)才能与 Django 一起工作, 但从 Celery 3.1 开始,情况便不再如此,我们可以直接通过 Celery 库来完成在 Django 中的任务。
安装 Redis 服务端

以 Docker 安装为例,安装一个密码为 mypassword 的 Redis 服务端
  1. docker run -itd --name redis -p 127.0.0.1:6379:6379 redis:alpine redis-server --requirepass mypassword
复制代码
在 Python 中安装 Celery 和 Redis
  1. pip install celery redis
复制代码
在 Django 项目中添加 Celery 配置

在 Django 项目中创建一个 celery.py 文件,并配置 Celery 应用程序。这个文件应该与 settings.py 文件位于同一目录下:
  1. import os
  2. from celery import Celery
  3. # 设置 Django 的默认环境变量
  4. os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'myproject.settings')
  5. app = Celery('myproject')
  6. # 使用 Django 的 settings.py 文件配置 Celery
  7. app.config_from_object('django.conf:settings', namespace='CELERY')
  8. # 从所有已安装的应用中自动发现并加载任务模块
  9. app.autodiscover_tasks()
复制代码
然后在 settings.py 文件中添加配置:
  1. # 使用 Redis 作为消息代理(broker)来传递任务消息,连接地址为 localhost:6379/0,并提供密码 mypassword 进行身份验证。
  2. CELERY_BROKER_URL = 'redis://:mypassword@localhost:6379/0'
  3. # 使用 Redis 作为结果存储后端,连接地址同上,使用相同的密码进行身份验证。
  4. CELERY_RESULT_BACKEND = 'redis://:mypassword@localhost:6379/0'
  5. # 指定发送到代理(broker)的任务消息序列化格式为 JSON 格式。
  6. CELERY_TASK_SERIALIZER = 'json'
  7. # 指定从结果后端获取的结果序列化格式为 JSON 格式。
  8. CELERY_RESULT_SERIALIZER = 'json'
  9. # 指定支持接收的内容类型为 JSON 格式。
  10. CELERY_ACCEPT_CONTENT = ['json']
  11. # 将时区设置为亚洲/上海时区。
  12. CELERY_TIMEZONE = 'Asia/Shanghai'
  13. # 启用 UTC 时间。
  14. CELERY_ENABLE_UTC = True
复制代码
在 Django 应用程序中创建一个 tasks.py 文件,并编写要运行的任务函数。例如,此处我们将编写一个名为 send_email() 的任务,来定期发送电子邮件:
  1. from django.core.mail import send_mail
  2. from celery import shared_task
  3. @shared_task
  4. def send_email():
  5.     # 发送电子邮件的代码
  6.     pass
复制代码
如果想要实现异步任务的功能,在 Django 项目中的任何位置调用任务函数即可。例如,在 views.py 文件中,我们可以从视图函数中启动任务,如下所示:
  1. from myapp.tasks import send_email
  2. def my_view(request):
  3.     send_email.delay()
  4.     return HttpResponse('任务已经在后台执行。')
复制代码
如果想要实现定时任务的功能,可以在 Celery 的配置文件中设置定时任务的调度方式。例如,要每小时运行一次 send_email() 任务,我们可以添加以下代码:
  1. from celery.task.schedules import crontab
  2. app.conf.beat_schedule = {
  3.     'send-email-every-hour': {
  4.         'task': 'myapp.tasks.send_email',
  5.         'schedule': crontab(minute=0, hour='*/1'),
  6.     },
  7. }
复制代码
定时任务的具体写法可以参考官方文档:https://docs.celeryq.dev/en/stable/userguide/periodic-tasks.html?highlight=crontab
运行 Celery-worker 与 Celery-beat

Celery是一个分布式任务队列,由三个主要组件组成:Celery worker、Celery beat 和消息代理(例如 Redis 或 RabbitMQ)。这些组件一起协作,让开发者能够轻松地执行异步任务和定时任务。
Celery worker:负责接收任务请求并执行任务。当您在 Django 应用程序中调用 apply_async 方法时,任务将被发送到 Celery worker,然后由 worker 执行。
Celery beat:负责调度定时任务。它会根据定义的规则定期触发任务,并将其发送到 Celery worker 处理。
所以,对于需要运行定时任务的情况,我们需要同时启动 Celery worker 和 Celery beat 进程来确保所有任务都可以被正确地处理和执行。
如果只需要使用 Celery 来执行异步任务,那么只需启动 Celery worker 即可。但如果需要周期性地执行任务,那么需要启动 Celery beat 来帮助完成调度这些任务。
  1. # 运行 worker 与 beat
  2. celery -A proj worker --loglevel=info --detach --pidfile=worker.pid --logfile=./logs/worker.log
  3. celery -A proj beat --loglevel=info --detach --pidfile=beat.pid --logfile=./logs/beat.log
复制代码

  • -A proj:指定 Celery 应用程序所在的模块或包,这里假设其名为 proj。
  • worker 或 beat:启动的进程名称,分别对应 worker 和 beat 两种类型的 Celery 进程。
  • --loglevel=info:设置日志级别为 info,即只记录 info 级别及以上的日志信息。
  • --detach:以守护进程(daemonized)方式启动 Celery 进程,使其在后台运行。
  • --pidfile=worker.pid 或 --pidfile=beat.pid:将进程 ID(PID)写入指定的 PID 文件,方便后续管理和监控。
  • --logfile=./logs/worker.log 或 --logfile=./logs/beat.log:指定日志文件路径,所有日志信息都会输出到该文件中。
随后我们设定的定时任务便会按规则执行,可以通过指定的日志文件查看执行结果。当我们需要停止 Celery worker 与 Celery beat 时,可以执行以下操作:
  1. kill -TERM $(cat worker.pid)
  2. kill -TERM $(cat beat.pid)
复制代码
参考

[1] [Using Celery with Django]: https://docs.celeryq.dev/en/stable/django/first-steps-with-django.html#using-celery-with-django
[2] [Periodic Tasks]: https://docs.celeryq.dev/en/stable/userguide/periodic-tasks.html?highlight=crontab

来源:https://www.cnblogs.com/desireroot7/p/17352598.html
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!

举报 回复 使用道具