1. 程式人生 > >Django中使用Celery實現定時任務(用djcelery)

Django中使用Celery實現定時任務(用djcelery)

三方庫 span 托管 沒有 日報 目錄結構 elf beat worker

[TOC]

一.引言

Django是python語言下的一個比較熱門的Web框架,越來越多的企業和開發者使用Django實現自己的Web服務器。在Web服務器開發過程中,有時候我們不僅僅是要實現Web服務器端和用戶端的簡單邏輯交互,還要實現一些定時任務。舉出以下的例子:  

  1. 定期刪除或緩存Redis數據庫的記錄
    為了追求更高的數據庫訪問性能,我把Redis作為MySql數據庫的緩存。把常訪問的數據放在Redis中,然後定時存儲到Mysql中。並且把過期的Redis數據刪掉.那麽這個時候,就需要定時去完成這個任務。

  2. 生成報表   
    打個比方,你有一個Web電商服務器,每天用戶都在會在上面購物。為了很方便的統計出每個用戶每個月的消費金額,你在數據庫中設計了一張月統計報表。然後使用定時任務,在每個月的1號進行統計,檢索數據庫,計算出每個用戶上個月的的消費金額,逐個存儲到月統計報表中。那麽這個生成報表的任務就是定時完成的,也就是前面提到的每個月的1號。

  3. 定時發送消息
    再如:當你的網站上用戶生日來臨,你希望在他生日那天,給用戶的郵箱發送生日快樂的祝福。那麽這也是定時任務實現的。

上面這些的例子,都是需要定時任務。在Python中,我們使用的Celery模塊完成這項任務。網絡上關於Celery的博文很多,大多博文的邏輯比較混亂,因此就有了這篇博文。希望讀者有個清晰的認識,並且很好的實戰出來。

此篇博文沒有介紹Celery的工作原理,諸如Broker,Worker等等。在實戰之前,這些概念必須要理解清楚。由於網上已經有很多這樣的內容,我在文章結尾處貼出了一些參考文檔,方便讀者學習。


二.Celery,Django和Djcelery

始終明確的是:


Celery是Python的第三方庫,它可以用於是任何的Python的項目中,因為我們始終可以把Celery看成一個獨立的模塊去操縱其它的模塊。因此,我們也可以在Django項目中使用的Celery,但值得註意的是,在Django中使用Celery的方式有兩種:

  1. 僅使用Celery。
  2. 同時使用Celery + djcelery .

方法1: 相當於中Django中加入了一個Celery的任務腳本,為了操縱Django,因此需要額外在Celery中配置Django環境,才能操作Django的數據庫。

方法2: 由於使用了djcelery,可以在任務中方便的直接操作Django數據庫,而且最終的任務可以在Django的後臺中查看和修改相關的任務。

兩種方法的選擇:
從上面的描述看,方法1比方法2少引入一個djcelery模塊,缺點是需要自己配置與Django結合的環境。而方法2,比較方便省心,還能在Django後臺管理自己的任務。因此如果你在Django中使用Celery,我強烈推薦方法2。

此篇博文講述了使用方法2,但它們本質上是一樣的。


三. Django目錄結構

下面展示了一個Django項目的目錄結構示例:

  • app
      - admin.py
      - views.py
      - urls.py
      - models.py
      - tasks.py
  • pro
      - settings.py
      - urls.py
      - urls.py
      - models.py
  • manage.py

註意,上述目錄中的tasks.py文件是我新建的,放在app的目錄下,整個Celery任務,我只新建了這一個文件。

四. 配置setting.py

為了設置Celery,我們需要對setting.py文件進行配置,過程如下:

1.加入djcelery

INSTALLED_APPS = (
    ‘django.contrib.admin‘,
    ‘django.contrib.auth‘,
    ‘djcelery‘, #此處是新加入的djcelery
    ‘app‘,
)

上述 INSTALLED_APPS中我省略了無關的模塊,註意加入djcelery即可。  
 

2. 設置celery參數

我在setting.py的文件結尾處,加入了如下的celery參數配置,先貼代碼,再解釋。

import djcelery
djcelery.setup_loader()
BROKER_URL = ‘redis://127.0.0.1:6379/6‘
CELERY_IMPORTS = (‘app.tasks‘, )
CELERY_TIMEZONE = TIME_ZONE
CELERYBEAT_SCHEDULER = ‘djcelery.schedulers.DatabaseScheduler‘

# 下面是定時任務的設置,我一共配置了三個定時任務.
from celery.schedules import crontab
CELERYBEAT_SCHEDULE = {
    #定時任務一: 每24小時周期執行任務(del_redis_data)
    u‘刪除過期的redis數據‘: {
        "task": "app.tasks.del_redis_data",
        "schedule": crontab(hour=‘*/24‘),
        "args": (),
    },
    #定時任務二: 每天的淩晨12:30分,執行任務(back_up1)
    u‘生成日報表‘: {
        ‘task‘: ‘app.tasks.back_up1‘,
        ‘schedule‘: crontab(minute=30, hour=0),
        "args": ()
    },
    #定時任務三:每個月的1號的6:00啟動,執行任務(back_up2)
    u‘生成統計報表‘: {
            ‘task‘: ‘app.tasks.back_up2‘,
            ‘schedule‘: crontab(hour=6, minute=0,   day_of_month=‘1‘),
            "args": ()
    },
}

上述代碼釋義:

當djcelery.setup_loader()運行時,Celery便會去查看INSTALLD_APPS下包含的所有app目錄中的tasks.py文件,找到標記為task的方法,將它們註冊為celery task。

  1. BROKER_URL = ‘redis://127.0.0.1:6379/6‘
    broker是代理人,它負責分發任務給worker去執行。我使用的是Redis作為broker,當然你也可以用其它的broker,比如官方就比較推薦使用RabbitMQ.

有的博客中提到要配置關鍵字:CELERY_RESULT_BACKEND,例如:

CELERY_RESULT_BACKEND = ‘amqp://guest@localhost//‘ #可以不用寫

我沒有配置這個關鍵字。因為如果沒有配置,此時Django會使用默認的數據庫(也是你指定的orm數據庫),作為它的結果作為它的backend。因此你也可以不用寫,使用Django默認設置的數據庫就很好。

  1. CELERY_IMPORTS = (‘app.tasks‘, )
    CELERY_TIMEZONE = TIME_ZONE
    CELERYBEAT_SCHEDULER = ‘djcelery.schedulers.DatabaseScheduler‘
    上面第一句是導入目標任務文件,第二句是設置時區,第三句表示使用了django-celery默認的數據庫調度模型,任務執行周期都被存在默認指定的orm數據庫中.

更深入的Celery配置:(http://www.cnblogs.com/ajianbeyourself/p/4950758.html)

  1. from celery.schedules import crontab
    CELERYBEAT_SCHEDULE = {
    #定時任務一: 每24小時周期執行任務(del_redis_data)
    u‘刪除過期的redis數據‘: {
        "task": "app.tasks.del_redis_data",
        "schedule": crontab(hour=‘*/24‘),
        "args": (),
    },
    上面是設置定時的時間配置,關於crontab的用法,官方的文檔講解的十分詳盡(文檔末尾的表格):

http://docs.celeryproject.org/en/latest/userguide/periodic-tasks.html

5.Tasks任務

每個任務本質上就是一個函數,在tasks.py中,寫入你想要執行的函數即可。我的tasks.py如下:我寫的每個任務又臭又長,因此具體的細節就省略了。

# coding=utf-8
from celery import task

@task()
def del_redis_data():
    # 此處是一個刪除redis數據的操作。具體略過

@task()
def back_up1():
    # 此處是一個備份到日報表的操作。具體略過

@task()
def back_up2():
    # 此處是一個生成統計報表的操作。具體略過

如果讀者需要自己實現一個定時任務,那麽上述的task函數必然要自己去定義,我只提供了參考。我上面的三個任務,分別對應了setting.py文件的CELERYBEAT_SCHEDULE的三個定時配置。

要記住的是,任務只是一個函數,這個函數什麽時候調用,取決你在setting.py中的配置。

6.啟動定時任務

待續:
登錄到Django後臺,可以看到數據庫中有任務的參數,圖日後補上。

然後啟動終端,切換到Django項目的根目錄下,運行:

celery worker -A 項目名 -l info  

這條命令用於啟動worker, worker本質上執行任務的線程,就是一個幹苦力的工人。

celery beat -A 項目名 -l info

上面這條任務用於啟動beater,它就像一個領導,負責把任務分發給工人。

到直接,這篇博文基本就結束了,由於兩次更新的時間間隔比較長,最初的思路都記不清了。當然,你肯定有一個重要的疑問,那就是如果任務因為系統重啟或者其它原因崩潰了怎麽重啟呢?對於linux 系統,supervisor可以托管這兩條命令,如果任務沒有跑起來,它可以自己重啟啟動任務,這樣,就能保證服務器端的定時任務不會因為一些原因崩潰掉。

7.推薦文章

1.更深入的Celery配置:(http://www.cnblogs.com/ajianbeyourself/p/4950758.html)

Django中使用Celery實現定時任務(用djcelery)