1. 程式人生 > >Django配置celery執行非同步任務和定時任務

Django配置celery執行非同步任務和定時任務

原生celery,非djcelery模組,所有演示均基於Django2.0

celery是一個基於python開發的簡單、靈活且可靠的分散式任務佇列框架,支援使用任務佇列的方式在分散式的機器/程序/執行緒上執行任務排程。採用典型的生產者-消費者模型,主要由三部分組成:
1. 訊息佇列broker:broker實際上就是一個MQ佇列服務,可以使用redis、rabbitmq等作為broker
2. 處理任務的消費者workers:broker通知worker佇列中有任務,worker去佇列中取出任務執行,每一個worker就是一個程序
3. 儲存結果的backend:執行結果儲存在backend,預設也會儲存在broker使用的MQ佇列服務中,也可以單獨配置用何種服務做backend

圖片來自網際網路

非同步任務

我的非同步使用場景為專案上線:前端web上有個上線按鈕,點選按鈕後發請求給後端,後端執行上線過程要5分鐘,後端在接收到請求後把任務放入佇列非同步執行,同時馬上返回給前端一個任務執行中的結果。若果沒有非同步執行會怎麼樣呢?同步的情況就是執行過程中前端一直在等後端返回結果,頁面轉呀轉的就轉超時了。

非同步任務配置

1.安裝rabbitmq,這裡我們使用rabbitmq作為broker,安裝完成後預設啟動了,也不需要其他任何配置

# apt-get install rabbitmq-server

2.安裝celery

# pip3 install celery

3.celery用在django專案中,django專案目錄結構(簡化)如下

website/
|-- deploy
|   |-- admin.py
|   |-- apps.py
|   |-- __init__.py
|   |-- models.py
|   |-- tasks.py
|   |-- tests.py
|   |-- urls.py
|   `-- views.py
|-- manage.py
|-- README
`-- website
    |-- celery.py
    |-- __init__.py
    |-- settings.py
    |
-- urls.py `-- wsgi.py

4.建立website/celery.py主檔案

from __future__ import absolute_import, unicode_literals
import os
from celery import Celery, platforms

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'website.settings')

app = Celery('website')

# Using a string here means the worker don't have to serialize
# the configuration object to child processes.
# - namespace='CELERY' means all celery-related configuration keys
#   should have a `CELERY_` prefix.
app.config_from_object('django.conf:settings', namespace='CELERY')

# Load task modules from all registered Django app configs.
app.autodiscover_tasks()

# 允許root 使用者執行celery
platforms.C_FORCE_ROOT = True

@app.task(bind=True)
def debug_task(self):
    print('Request: {0!r}'.format(self.request))

5.在website/__init__.py檔案中增加如下內容,確保django啟動的時候這個app能夠被載入到

from __future__ import absolute_import

# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .celery import app as celery_app

__all__ = ['celery_app']

6.各應用建立tasks.py檔案,這裡為deploy/tasks.py

from __future__ import absolute_import
from celery import shared_task

@shared_task
def add(x, y):
    return x + y
  • 注意tasks.py必須建在各app的根目錄下,且只能叫tasks.py,不能隨意命名

7.views.py中引用使用這個tasks非同步處理

from deploy.tasks import add

def post(request):
    result = add.delay(2, 3)
  • 使用函式名.delay()即可使函式非同步執行
  • 可以通過result.ready()來判斷任務是否完成處理
  • 如果任務丟擲一個異常,使用result.get(timeout=1)可以重新丟擲異常
  • 如果任務丟擲一個異常,使用result.traceback可以獲取原始的回溯資訊

8.啟動celery

# celery -A website worker -l info

9.這樣在呼叫post這個方法時,裡邊的add就可以非同步處理了

定時任務

定時任務的使用場景就很普遍了,比如我需要定時傳送報告給老闆~

定時任務配置

1.website/celery.py檔案新增如下配置以支援定時任務crontab

from celery.schedules import crontab

app.conf.update(
    CELERYBEAT_SCHEDULE = {
        'sum-task': {
            'task': 'deploy.tasks.add',
            'schedule':  timedelta(seconds=20),
            'args': (5, 6)
        }
        'send-report': {
            'task': 'deploy.tasks.report',
            'schedule': crontab(hour=4, minute=30, day_of_week=1),
        }
    }
)
  • 定義了兩個task:

    • 名字為’sum-task’的task,每20秒執行一次add函式,並傳了兩個引數5和6
    • 名字為’send-report’的task,每週一早上4:30執行report函式
  • timedelta是datetime中的一個物件,需要from datetime import timedelta引入,有如下幾個引數

    • days:天
    • seconds:秒
    • microseconds:微妙
    • milliseconds:毫秒
    • minutes:分
    • hours:小時
  • crontab的引數有:

    • month_of_year:月份
    • day_of_month:日期
    • day_of_week:周
    • hour:小時
    • minute:分鐘

2.deploy/tasks.py檔案新增report方法:

@shared_task
def report():
    return 5

3.啟動celery beat,celery啟動了一個beat程序一直在不斷的判斷是否有任務需要執行

# celery -A website beat -l info

Tips

1.如果你同時使用了非同步任務和計劃任務,有一種更簡單的啟動方式celery -A website worker -b -l info,可同時啟動worker和beat
2.如果使用的不是rabbitmq做佇列那麼需要在主配置檔案中website/celery.py配置broker和backend,如下:

# redis做MQ配置
app = Celery('website', backend='redis', broker='redis://localhost')
# rabbitmq做MQ配置
app = Celery('website', backend='amqp', broker='amqp://admin:[email protected]')

3.celery不能用root使用者啟動的話需要在主配置檔案中新增platforms.C_FORCE_ROOT = True
4.celery在長時間執行後可能出現記憶體洩漏,需要新增配置CELERYD_MAX_TASKS_PER_CHILD = 10,表示每個worker執行了多少個任務就死掉

參考文章:

掃碼關注公眾號檢視更多實用文章

相關推薦

Django配置celery執行非同步任務定時任務

原生celery,非djcelery模組,所有演示均基於Django2.0 celery是一個基於python開發的簡單、靈活且可靠的分散式任務佇列框架,支援使用任務佇列的方式在分散式的機器/程序/執行緒上執行任務排程。採用典型的生產者-消費者模型,主

django —— Celery實現異步定時任務

not 1.10 掃描 pick scheduler 建議 inux data rtc 1. 環境 python==2.7 djang==1.11.2 # 1.8, 1.9, 1.10應該都沒問題 celery-with-redis==3.0 # 需要用到redi

spring非同步方法定時任務

1.功能說明 Spring提供了Async註解來實現方法的非同步呼叫。 即當呼叫Async標識的方法時,呼叫執行緒不會等待被呼叫方法執行完成即返回繼續執行以下操作,而被呼叫的方法則會啟動一個獨立執行緒來執行此方法。 這種非同步執行的方式通常用於處理介面中不需要返回給使用者的資料處理。比如

java多執行緒與高併發庫應用(二)執行緒建立定時任務Timer

1、建立執行緒的兩種方式, 通過start, 執行run方法。 第一種實現runnable, 定義類實現Runnable介面 重寫Runnable介面中的run方法 通過Thread建立執行緒物件 將Runnable介面的子類物件作為實際引數傳遞

Linux 系統延時任務定時任務

linux基礎運維學習一、延時任務 在Linux中延時任務是臨時的,可以指定某一個任務在將來的特定時間運行1、at命令 基本操作格式:[[email protected]/* */ ~]# at now+1min at> date<EOT> #EOT代表Ctrl+D來保存

延時任務定時任務

延時及定時任務1延遲任務at命令發起的任務都是一次性的at +time>命令>ctrl+d 表示發起動作 at -l | atq

Linux(RadHat)基礎學習—延時任務定時任務

str 命令 一次 vim oot 每天 指令2 conf 回車 1.系統延時任務 1.at命令 at命令發起的延時任務都時一次性的 at + time[回車]指令1[回車]指令2[回車]...[回車]按ctrl+d發起動作 例子1: [root@xyz ~]# at 11

延遲任務定時任務以及臨時檔案的清理

1.延遲任務 (1)at命令 at 時間 #設定在該時刻要進行什麼操作 at now+數字min #在幾分鐘後要進行什麼操作 at -l #檢視該操作的編號(只能檢視到最新建立但又未執行的操作) at -

django —— Celery實現非同步定時任務

1. 環境 python==2.7 djang==1.11.2 # 1.8, 1.9, 1.10應該都沒問題 celery-with-redis==3.0 # 需要用到redis作為中間人

Django搭配Celery進行非同步/定時任務(一)初步搭建

以下需求場景很常見: 1. 使用者點選頁面按鈕,請求後臺進行一系列耗時非常高的操作,頁面沒有響應/一直Loading,使用者體驗非常不好。 2. 某些資料需要預先處理,每天凌晨的時候進行運算,大約半小時到1小時才能完成。 3. 進行外部系統的介面資料呼叫,介面要求在10秒內返回應答報

使用rediscelery執行非同步任務時報錯AttributeError: 'str' object has no attribute 'iteritems'

程式碼基本配置正常,但是執行Celery -A myproject worker -l info執行的時候了一個AttributeError: ‘str’ object has no attribute 'iteritems’錯誤,找了兩天看到一個部落格裡的文章,錯誤問題和我的問題內容差

jfinalQ開發教程08-qiao-util.jar:多執行定時任務

多執行緒 多執行緒是java面試中最愛問的一個問題,當然如果工作多年沒準備去面試,正好讓你手寫程式碼,那就只能呵呵了~ QThreadUtil com.uikoo9.util.function.QThreadUtil對java自帶的多執行緒做了封裝,其實java自帶多執行緒已經

Python--Django使用celery實現非同步任務

Django使用celery實現非同步任務 celery使用: 以傳送簡訊為例 在專案目錄下下建立celery_tasks用於儲存celery非同步任務。 在celery_tasks目錄下建立config.py檔案,用於儲存celery的配置資訊 # redi

Django 使用 Celery 實現非同步任務

對於網站來說,給使用者一個較好的體驗是很重要的事情,其中最重要的指標就是網站的瀏覽速度。因此服務端要從各個方面對網站效能進行優化,比如可採用CDN載入一些公共靜態檔案,如js和css;合併css或者js從而減少靜態檔案的請求等等…..還有一種方法是將一些不需要立即返回給使用者,

docker 完美搭建 laravel 執行環境(含 佇列 定時任務 )

本文github庫:https://github.com/xiaoemoxiw/docker.git 國內碼雲庫:https://gitee.com/jlgg/docker.git docker搭建PHP(laravel)環境,是docker的其中一塊應用。對於lar

基於DjangoCelery實現非同步佇列任務

在運營系統中經常用到非同步方式來處理我們的任務,比如將業務上線流程串成任務再寫入佇列,通過後臺作業節點去排程執行。比較典型的案例為騰訊的藍鯨、織雲、雲智慧等平臺。本譯文結合Django+Celery+Redis實現一個定期從Flickr 獲取圖片並展示的簡單案例,方便大家理解實

SpringBoot中的非同步任務定時任務郵件任務

一、SpringBoot中的非同步任務 在Java應用中,絕大多數情況下都是通過同步的方式來實現互動處理的,但是在處理與第三方系統互動的時候,容易造成響應遲緩的情況,之前大部分都是使用多執行緒來完成此類任務,其實,在Spring 3.x之後,就已經內建了@Async來完美解決這個問題

SpringBoot(十) 非同步任務定時任務郵件任務

非同步任務 “非同步呼叫”對應的是“同步呼叫”,同步呼叫指程式按照定義順序依次執行,每一行程式都必須等待上一行程式執行完成之後才能執行;非同步呼叫指程式在順序執行時,不等待非同步呼叫的語句返回結果就執行後面的程式。 @Service public class AsyncService {

django使用celery非同步執行過程

執行過程持續返回 簡要 1. 挑用外掛: django-celery jenkins 2. 基於Python版本: Python2.7 3. 基於django版本: django1.8.18 主要問題: 需要把jenkin

通過ssh遠程執行命令導入定時任務報錯----解決過程

linux ssh su 今天在服務器中通過ssh遠程執行批量導入定時任務時發生了一個問題:總結如下,遠程服務器已設置好ssh秘鑰登錄,登錄用戶為普通用戶,但已設置好擁有免密sudo權限ssh 1.1.1.1 "sudo su -c "echo ‘30 5 * * 5 /bin/sh /root/