在 Linux 上配置 Celery 集群需要以下几个步骤:
安装 Celery 和相关依赖库:
使用 pip 安装 Celery 和其他必要的库,例如 Redis(用于消息代理)和 Django(如果你使用 Django 作为后端)。
pip install celery redis django
创建一个新的 Celery 项目或在现有项目中添加 Celery 支持:
如果你还没有一个项目,可以创建一个新的项目。在项目根目录下创建一个名为 celery.py
的文件,然后在 __init__.py
文件中导入 Celery 实例以确保它是项目的一部分。
# project/celery.py
from __future__ import absolute_import, unicode_literals
import os
from celery import Celery
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'project.settings')
app = Celery('project')
app.config_from_object('django.conf:settings', namespace='CELERY')
app.autodiscover_tasks()
# project/__init__.py
from __future__ import absolute_import, unicode_literals
from .celery import app as celery_app
__all__ = ('celery_app',)
配置 Celery 和 Redis:
在 Django 的 settings.py
文件中,添加以下配置以设置 Celery 和 Redis:
CELERY_BROKER_URL = 'redis://localhost:6379'
CELERY_RESULT_BACKEND = 'redis://localhost:6379'
CELERY_ACCEPT_CONTENT = ['application/json']
CELERY_TASK_SERIALIZER = 'json'
CELERY_RESULT_SERIALIZER = 'json'
创建任务:
在 Django 应用程序中创建一个新的任务。例如,在一个名为 tasks.py
的文件中创建一个简单的任务:
from celery import shared_task
@shared_task
def add(x, y):
return x + y
运行 Celery worker:
在项目根目录下,使用以下命令启动 Celery worker:
celery -A project worker --loglevel=info
这将启动一个 Celery worker,它将开始处理任务队列中的任务。你可以根据需要启动多个 worker 来实现集群。
调用任务:
现在你可以从你的应用程序中调用 Celery 任务。例如,在 Django 视图中调用 add
任务:
from .tasks import add
result = add.delay(4, 4)
通过以上步骤,你已经成功地在 Linux 上配置了一个 Celery 集群。你可以根据需要调整 worker 的数量、Redis 配置等以满足你的需求。