1.啟動rabbimq、mysql

在“”執行“”裡輸入services.msc,找到rabbimq、mysql啟動即可

2.啟動redis

管理員進入cmd,進入redis所在目錄,執行redis-server.exe redis.windows.conf --maxmemory 200M  啟動redis  server

執行redis-cli.exe啟動客戶端

一、 python系列之 RabbitMQ - hello world

介紹

python連線遠端rabbitmq程式碼:
 import pika
 import sys

 username = 'wt'  #rabbitmq使用者名稱
 pwd = '  #rabbitmq密碼
 user_pwd = pika.PlainCredentials(username, pwd)
 s_conn = pika.BlockingConnection(pika.ConnectionParameters('192.168.1.240', credentials=user_pwd))
 chan = s_conn.channel()
 print('hello')

或者 :
  1. credentials = pika.PlainCredentials('guest', 'geust')
  2. #這裡可以連線遠端IP,請記得開啟遠端埠
  3. parameters = pika.ConnectionParameters('localhost',5672,'/',credentials)
  4. connection = pika.BlockingConnection(parameters)
  5. channel = connection.channel()
 RabbitMQ 是一個訊息中介軟體,它的主要功能非常簡單:  接收和轉發訊息。  你可以認為 RabbitMQ 就是一個郵局,當你將郵件投遞到郵箱後你非常確認郵遞員會將你郵件最終投遞到你的接收者。 通過這個比喻,MQ就是一個郵箱、郵局和郵遞員  RabbitMQ與郵局的最大不同點是 MQ不處理紙張,而是儲存和轉發二進位制資料(訊息)
 
RabbitMQ有一些基本術語:  Producer(生產者): 一個程式/應用 傳送訊息就是一個producer, 以下我們簡稱為 "P" 

Queue(佇列):queue就是一個"郵箱"的簡稱,它存在於RabbitMQ內部。雖然訊息在RabbitMQ和你的應用之間傳輸,但他們只能儲存在一 個佇列(queue)裡面。佇列是不受任何限制的約束,你可以想存多少就存多少 - 它本質上是一個無限的緩衝區。

Consumer(消費者):類似一個接收者, 一個 Consumer 是一個等待接收訊息的程式,以下我們簡稱 “C"

 
注意: 一個Producer、Consuer和中介軟體(MQ)不一定必須在同一臺機器上,現實使用也是這樣
 

Hello World

 (使用官方推薦的 pika python 客戶端) 
 “hello world”這裡並不複雜-- 我們傳送一個訊息、接收訊息然後輸出到螢幕,為了演示這個我們需要兩個程式,一個傳送、一個接收並列印 我們的設計如下圖: 
  1. 我們這裡講的RabbitMQ採用的是AMQP 0.9.1 ,一個開放的、通用的訊息協議,在不同的語言中有很多的不同的RabbitMQ客戶端,我們下面使用的是pika, 這個是RabbitMQ小組推薦的python客戶端

Sending:

我們的第一個程式是send.py 用來發送訊息到佇列,第一件事就是要建立一個RabbitMQ的連線到Server端
  1. import pika
  2. s_connec = pika.BlockingConnection(pika.ConnectionParameters('loaclhost'))
  3. chan = s_connec.channel()

我們現在就建立了連線了,由於我們中介軟體在本機所以這裡的設定的是“localhost",如果我們想連線到一個不同的伺服器,只 需要簡單的將”localhost" 改為 伺服器的主機名或IP地址.

下一步,在傳送訊息之前我們要確定接收佇列存在,如果我們傳送一個訊息到一個不存在的目的地,RabbitMQ將丟棄這條訊息, 我們先建立一個訊息傳送的目的佇列,這裡命名為 "hello"
  1. chan.queue_declare(queue='hello')

到這點我們就可以傳送一個訊息了,我們的第一個訊息將正式包含一個字串“hello world",將這個訊息傳送到 ”hello“佇列 在RabbitMQ中,一個訊息不能直接傳送到一個佇列中,通常需要通過一個交換(exchange),我們在後面的部分將詳細講解 exchange ,現在所有我們需要知道的是如何利用一個空字串標識預設的exchange。這個一個特殊的exchange -- 它使我們能夠確切地指定訊息應該到哪個佇列去。 這裡需要在 routing_key 引數中指定傳送的佇列名:

  1. chan.basic_publish(exchange="",
  2. routing_key='hello',
  3. body="hello world")
  4. print(" [x] Sent 'Hello World!'")

在我們退出應用程式之前,我們需要確認網路緩衝區已經flush而且訊息已經確認傳送到了RabbitMQ中,我們可以使用下面的程式碼來關閉連線

  1. s_connec.close()
 

Receiving

我們的第二個程式 receive.py 將從佇列中接收訊息並輸出到螢幕 同樣我們的第一步也是連線到RabbitMQ伺服器,程式碼和服務端的一樣:
  1. connection = pika.BlockingConnection(pika.ConnectionParameters(
  2. host='localhost'))
  3. channel = connection.channel()

下一步和之前一樣也需要確認佇列是否存在,使用 queue_declare 建立一個佇列。 你可能會問為什麼還需要在建立一次佇列,我們在上面的程式碼中已經建立了一次了。因為我們不能確認佇列是否已經存在了,如果我們的服務端還未啟動,佇列也就沒有建立,這個時候客戶端啟動了,就找不到佇列。為了避免這個問題就需要在客戶端和服務端均建立一下,這樣就能保證無論是服務端還是客戶端先啟動佇列都存在

  1. channel.queue_declare(queue='hello')
  1. 可以在伺服器上通過執行以下命令檢視佇列資訊
  2. $ sudo rabbitmqctl list_queues
 

從佇列接收訊息要更復雜一些,它需要為佇列訂閱一個 callback 函式來進行接收。當我們接收一個訊息後,這個 callback 函式將會被 pika函式庫自動呼叫, 在我們的這個例項裡面這個函式將用來列印接收的訊息內容到螢幕

  1. def callback(ch, method, properties, body):
  2. print(" [x] Received %r" % body)

下一步我們需要告訴RabbitMQ這個特殊的 callback 函式需要從我們的hello佇列接收訊息

  1. channel.basic_consume(callback,
  2. queue='hello',
  3. no_ack=True)

no_ack 引數將在後面的部分講解

最終,我們執行永不停止的迴圈來等待資料和呼叫callbacks進行資料處理 
  1. print(' [*] Waiting for messages. To exit press CTRL+C')
  2. channel.start_consuming()
 

完整程式碼:

Producer: send.py
  1. import pika
  2. connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
  3. channel = connection.channel()
  4. channel.queue_declare(queue='hello')
  5. channel.basic_publish(exchange='',
  6. routing_key='hello',
  7. body='Hello World!')
  8. print(" [x] Sent 'Hello World!'")
  9. connection.close()

Consumer:receive.py

  1. import pika
  2. def callback(ch, method, properties, body):
  3. print(" [x] Received %r" % body)
  4. connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
  5. channel = connection.channel()
  6. channel.queue_declare(queue='hello')
  7. channel.basic_consume(callback,
  8. queue='hello',
  9. no_ack=True)
  10. print(' [*] Waiting for messages. To exit press CTRL+C')
  11. channel.start_consuming()

二、python系列之 RabbitMQ - work queues

本節我們建立一個工作佇列( work queue )用來在多個workers之間分發訊息
工作佇列(又名:任務佇列)的主要思想是避免在資源密集型的任務處理中不得不等待它的完成,相反,我們安排這個任務稍後完成。我們把這任務作為一個訊息封裝起來併發送到一個佇列中,一個後臺工作程序將這個任務取出並最終執行這個任務,當你執行多個任務時,多個消費者將共享這些任務。
這個概念在網頁應用中對於在HTTP短連線請求中處理複雜任務時尤其有用。
 

預備

前面的部分我們傳送了一個訊息內容“hello world", 現在我們要傳送複雜任務的字串。我們沒有真實世界的任務,比如重新調整一個圖片大小或者渲染一個PDF檔案,我們通過time.sleep()函式假裝訊息接收後任務非常繁忙,需要消耗一定的時間,我們通過字串中小數點的個數來描述任務的複雜性,每個點代表“work"要耗費1秒,例如:假設一個任務描述 "Hello..." 將要耗費3秒鐘。
 
我們修改之前的 send.py 程式碼,允許通過命令列來發送任意訊息。這個程式將要處理任務到工作佇列。我們命名為 new_task.py
[python] view plain copy

 

print?

  1. import pika
  2. import sys
  3. message = ' '.join(sys.argv[1:]) or "Hello World"
  4. channel.basic_publish(exchange='',
  5. routing_key='worker',
  6. body=message,
  7. properties=pika.BasicProperties(delivery_mode = 2,)
  8. )
  9. print(" [x] Send %r " % message)
 

之前老的 receive.py 指令碼也需要一些改變,我們對處理模組 callback 函式進行一些修改:它假裝對訊息中的每個小數點需要1秒時間進行處理,它將會從訊息佇列中pop一個訊息然後執行任務,我們用 worker.py 來命名這個檔案

[python] view plain copy

 

print?

  1. import time
  2. def callback(ch, method, properties, body):
  3. print(" [x] Received %r" % body)
  4. time.sleep(body.count(b'.'))
  5. print(" [x] Done")
  6. ch.basic_ack(delivery_tag = method.delivery_tag)

迴圈排程(Round-robin dispatching)

使用任務佇列(tack queue)的優點是很容易的進行並行工作的能力,如果我們的工作佇列產生一定的積壓,我們可以建立多個worker來接收並處理訊息,這樣很容易擴充套件
首先,我們試著同時執行兩個worker.py 指令碼,它們都可以從訊息佇列中獲取訊息,你需要開啟兩個終端,執行兩個 worker.py , 當做兩個Consumer: C1 和 C2
[python] view plain copy

 

print?

  1. shell1$ python worker.py
  2. [*] Waiting for messages. To exit press CTRL+C
[python] view plain copy

 

print?

  1. shell2$ python worker.py
  2. [*] Waiting for messages. To exit press CTRL+C

再開啟一個終端,執行 new_task.py ,執行多個任務

[java] view plain copy

 

print?

  1. shell3$ python new_task.py First message.
  2. shell3$ python new_task.py Second message..
  3. shell3$ python new_task.py Third message...
  4. shell3$ python new_task.py Fourth message....
  5. shell3$ python new_task.py Fifth message.....
 

讓我們看看兩個worker端接收的訊息:

[python] view plain copy

 

print?

  1. shell1$ python worker.py
  2. [*] Waiting for messages. To exit press CTRL+C
  3. [x] Received 'First message.'
  4. [x] Received 'Third message...'
  5. [x] Received 'Fifth message.....'
[python] view plain copy

 

print?

  1. shell2$ python worker.py
  2. [*] Waiting for messages. To exit press CTRL+C
  3. [x] Received 'Second message..'
  4. [x] Received 'Fourth message....'
 

預設,RabbitMQ將迴圈的傳送每個訊息到下一個Consumer , 平均每個Consumer都會收到同樣數量的訊息。 這種分發訊息的方式成為 迴圈排程(round-robin)

 
上述完整程式碼
new_task.py
[python] view plain copy

 

print?

  1. import pika
  2. import sys
  3. connec = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
  4. channel = connec.channel()
  5. channel.queue_declare(queue='worker')
  6. message = ' '.join(sys.argv[1:]) or "Hello World"
  7. channel.basic_publish(exchange='',
  8. routing_key='worker',
  9. body=message,
  10. properties=pika.BasicProperties(delivery_mode = 2,)
  11. )
  12. print(" [x] Send %r " % message)
 

worker.py

[python] view plain copy

 

print?

  1. import time
  2. import pika
  3. connect = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
  4. channel = connect.channel()
  5. channel.queue_declare('worker')
  6. def callback(ch, method, properties,body):
  7. print(" [x] Received %r" % body)
  8. time.sleep(body.count(b'.'))
  9. print(" [x] Done")
  10. ch.basic_ack(delivery_tag = method.delivery_tag)
  11. channel.basic_consume(callback,
  12. queue='worker',
  13. )
  14. channel.start_consuming()

訊息確認(Message acknowledgment)

 

執行一個任務能消耗幾秒. 你可能想知道當一個consumer在執行一個艱鉅任務或執行到一半是死掉了會發生什麼。就我們當前的程式碼而言,一旦RabbitMQ 的分發完訊息給 consumer後 就立即從記憶體中移除該訊息。這樣的話,如果一個worker剛啟動你就結束掉,那麼訊息就丟失了。那麼所有傳送給這個 worker 的還沒有處理完成的訊息也將丟失。

但是我們不想丟失任何任務,如果worker死掉了,我們希望這個任務能夠傳送給其它的worker
為了確保一個訊息不會丟失,RabbitMQ支援訊息的 acknowlegements , 一個 ack(nowlegement) 是從consumer端傳送一個回執去告訴RabbitMQ 訊息已經接收了、處理了,RabbitMQ可以釋放並刪除掉了。
如果一個consumer 死掉了(channel關閉、connection關閉、或者TCP連線斷開了)而沒有傳送ack,RabbitMQ 就會知道這個訊息沒有被完全處理並會重新發送到訊息佇列中,如果同時有另外一個consumer線上,將會很快轉發到另外一個consumer中。 那樣的話你就能確保雖然worker死掉,但訊息不會丟失。
這個是沒有超時的,當消費方(consumer)死掉後RabbitMQ會重新轉發訊息,即使處理這個訊息需要很長很長時間也沒有問題
訊息的 acknowlegments 預設是開啟的,在前面的例子中關閉了: no_ack = True . 現在刪除這個標識 然後 傳送一個 acknowledgment。
[ruby] view plain copy

 

print?

  1. def callback(ch, method, properties, body):
  2. print " [x] Received %r" % (body,)
  3. time.sleep( body.count('.') )
  4. print " [x] Done"
  5. ch.basic_ack(delivery_tag = method.delivery_tag)
  6. channel.basic_consume(callback,
  7. queue='hello')

使用這個程式碼我們能確保即使在程式執行中使用CTRL+C結束worker程序也不會有訊息丟失。之後當worker死掉之後所有未確認的訊息將會重新進行轉發。

 
[html] view plain copy

 

print?

  1. 忘了 acknowlegement
  2. 忘記設定basic_ack是一個經常犯也很容易犯的錯誤,但後果是很嚴重的。當客戶端退出後訊息將會重新轉發,但RabbitMQ會因為不能釋放那些沒有回覆的訊息而消耗越來越多的記憶體
  3. 為了除錯(debug)這種型別的錯誤,你可以使用 rabbitmqctl 列印 message_unacknowledged 欄位:
  4. $ sudo rabbitmqctl list_queues name messages_ready messages_unacknowledged
  5. Listing queues ...
  6. hello    0       0
  7. ...done
 

訊息持久化(Message durability)

我們已經學習了即使客戶端死掉了任務也不會丟失。但是如果RabbitMQ服務停止了的話,我們的任務還是會丟失。

當RabbitMQ退出或宕掉的話將會丟失queues和訊息資訊,除非你進行設定告訴伺服器佇列不能丟失。要確保訊息不會丟失需要做兩件事: 我們需要將佇列和訊息標記為 durable
首先:
我們需要確保RabbitMQ 永遠不會丟失佇列,為了確保這個,我們需要定義佇列為durable:
[python] view plain copy

 

print?

  1. channel.queue_declare(queue='hello', durable=True

儘管此命令本身定義是正確的,但我們設定後還是不會工作。因為我們已經定義了個名為 hello ,但不是durable屬性的佇列。RabbitMQ不允許你重新定義一個已經存在、但屬性不同的queue。RabbitMQ 將會給定義這個屬性的程式返回一個錯誤。但這裡有一個快速的解決方法:讓我們定義個不同名稱的佇列,比如 task_queue:

[python] view plain copy

 

print?

  1. channel.queue_declare(queue='task_queue', durable=True)

這個 queue_declare 需要在 生產者(producer) 和消費方(consumer) 程式碼中都進行設定。

基於這一點, 我們能夠確保 task_queue 佇列即使RabbitMQ重啟也不會丟失
 
現在我們需要標記我們的訊息為持久化的 - 通過設定 delivery_mode 屬性為 2
[python] view plain copy

 

print?

  1. channel.basic_publish(exchange='',
  2. routing_key="task_queue",
  3. body=message,
  4. properties=pika.BasicProperties(
  5. delivery_mode = 2, # make message persistent
  6. ))
 

訊息持久化的注意點

標記訊息為持久化的並不能完全保證訊息不會丟失,儘管告訴RabbitMQ儲存訊息到磁碟,當RabbitMQ接收到訊息還沒有儲存的時候仍然有一個短暫的時間視窗. RabbitMQ不會對每個訊息都執行同步fsync(2) --- 可能只是儲存到快取cache還沒有寫入到磁碟中,這個持久化保證不是很強,但這比我們簡單的任務queue要好很多,如果你想很強的保證你可以使用 publisher confirms

公平排程(Fair dispatch)

你可能已經注意到分發仍然不能完全符合我們想要進行的工作。比如有兩個worker的一種情況,當所有基數的訊息比較重要,偶數的訊息相對不重要,一個worker相對處理比較繁忙而另一個幾乎不怎麼工作。但是對於RabbitMQ而言,它對此一無所知並仍然均勻的分發訊息。
發生這樣的情況是由於RabbitMQ只是當訊息來是進行分發,它並不考慮消費方(consuer)回覆的ack訊息,它只是一味地分發每個訊息到各個消費方
為了解決這個問題我們可以使用 basic.qos 方法使用 prefetch_count = 1 設定, 這樣告訴RabbitMQ不要同時將多條訊息分發到一個worker, 換句話說,在一個worker未處理完之前的訊息之前不要分發新的訊息給它。 換言之,會將這個訊息分發給另一個不是很忙的worker進行處理。
[python] view plain copy

 

print?

  1. channel.basic_qos(prefetch_count=1)

程式碼彙總

new_task.py 指令碼的全部程式碼為:
[python] view plain copy

 

print?

  1. import pika
  2. import sys
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='localhost'))
  5. channel = connection.channel()
  6. channel.queue_declare(queue='task_queue', durable=True) # 設定佇列為持久化的佇列
  7. message = ' '.join(sys.argv[1:]) or "Hello World!"
  8. channel.basic_publish(exchange='',
  9. routing_key='task_queue',
  10. body=message,
  11. properties=pika.BasicProperties(
  12. delivery_mode = 2, # 設定訊息為持久化的
  13. ))
  14. print(" [x] Sent %r" % message)
  15. connection.close()

new_task.py 指令碼

[python] view plain copy

 

print?

  1. #!/usr/bin/env python
  2. import pika
  3. import time
  4. connection = pika.BlockingConnection(pika.ConnectionParameters(
  5. host='localhost'))
  6. channel = connection.channel()
  7. channel.queue_declare(queue='task_queue', durable=True)  # 設定佇列持久化
  8. print(' [*] Waiting for messages. To exit press CTRL+C')
  9. def callback(ch, method, properties, body):
  10. print(" [x] Received %r" % body)
  11. time.sleep(body.count(b'.'))
  12. print(" [x] Done")
  13. ch.basic_ack(delivery_tag = method.delivery_tag)
  14. channel.basic_qos(prefetch_count=1)   # 訊息未處理完前不要傳送資訊的訊息
  15. channel.basic_consume(callback,
  16. queue='task_queue')
  17. channel.start_consuming()

二、 python系列之 RabbitMQ -- Publish/Subscribe

前面的部分我們建立了一個工作佇列(work queue). 設想是每個任務都能分發到一個worker,這一部分我們將會做一些完全不同的事情 -- 我們將會分發一個訊息到多個消費方(consumer),這種模式被譽為釋出/訂閱(publish/subscribe)模式

為了闡明這種模式,我們將要建立一個簡單的日誌系統,由兩部分程式組成 -- 第一部分將要釋出日誌訊息,第二部分接收並列印

在我們的日誌系統中每個接收程式(receiver)將接收訊息並複製訊息內容,這樣我們將會執行一個receiver  記錄日誌到磁碟;與此同時我們執行另一個receiver輸入日誌到螢幕檢視。

本質上,釋出日誌訊息將會廣播到所有的receivers

交換 (Exchanges)

 
在前面的部分我們從一個佇列來回傳送並接收訊息。現在介紹Rabbit中的完整訊息模式。
讓我們迅速回顧一下前面的章節的內容:
>>  一個 Producer 是一個傳送訊息的使用者程式
>> 一個 queue 是一個儲存訊息的緩衝區
>> 一個 Consumer 是一個接收訊息的使用者程式
 
RabbitMQ的訊息模式的核心思想是生產者(Producer)從不將訊息直接傳送到一個佇列(queue)中,實際上,很多時候生產者甚至不知道一個訊息是否要分發到所有佇列.
換言之,生產者(producer)只能夠傳送訊息到一個交換區Exchange.. 對exchange傳送訊息是一個非常容易的事情.  從生產者producer方接收訊息,從另一邊將訊息push到佇列中。exchange必須清楚知道接收到的訊息要如何處理. 是要將訊息傳送到一個指定queue? 是要將訊息傳送到多個queue? 還是丟棄? 這個規則需要通過 exchange type 來定義
 
 
 
這裡有幾種exchange型別可用: direct  ,  topic ,  headers  和 fanout  。 我們將要對最後一種進行講解  ---  fanout  。 我們建立一個 這種型別的exchange 並命名為logs:
[python] view plain copy

 

print?

  1. channel.exchange_declare(exchange='logs',
  2. type='fanout')
 

fanout exchange非常簡單,你從這個名字中就能猜出來,它將從Producer方收到的訊息廣播給所有他知道的receiver方。而這正是我們的logger記錄所需要的訊息。

 
關於Exchange的幾種模式:http://blog.csdn.net/songfreeman/article/details/50953288
 
exchanges列表
使用rabbitmqclt管理工具顯示伺服器上的exchanges列表
[plain] view plain copy

 

print?

  1. $ sudo rabbitmqctl list_exchanges
  2. Listing exchanges ...
  3. logs      fanout
  4. amq.direct      direct
  5. amq.topic       topic
  6. amq.fanout      fanout
  7. amq.headers     headers
  8. ...done.

在這個列表中有一些amq.*  exchange和預設的exchange,這些都是預設建立的,但是這些未必是你所需要的。

 
匿名的exchange

在前面部分我們知道空的exchange, 但仍然能夠傳送訊息到佇列中,只是因為我們使用的是我們定義的空字串“”exchange(預設的exchange)
回憶一下我們之前怎麼釋出一個訊息:
[python] view plain copy

 

print?

  1. channel.basic_publish(exchange='',
  2. routing_key='hello',
  3. body=message)

這個exchange引數就是這個exchange的名字. 空字串標識預設的或者匿名的exchange:如果存在routing_key, 訊息路由到routing_key指定的佇列中。

 
現在我們可能夠釋出訊息到我們自己命名的exchange:
[python] view plain copy

 

print?

  1. channel.basic_publish(exchange='logs',
  2. routing_key='',
  3. body=message)

臨時佇列( Temporary queues )

你應該記得我們之前使用有一個特定名字的佇列( hello、task_queue). 設定佇列名對我們來說是至關重要的 --- 我們需要給消費方指定同樣的佇列名字。 要在生產者和消費者之間共享佇列,給佇列設定一個名字是非常重要的。

但是這不是我們日誌應用的關鍵,我們希望獲取到所有的日誌訊息,而不是他們的一個子集。我們只對當前活動的訊息敢興趣,對已經發過的舊的訊息不關心。為了解決這個問題我們需要做兩件事:
首先: 
無論什麼時候我們連線到Rabbit我們需要一個空的、新的佇列。為了實現這個我們可以建立個隨機名的佇列,或者,更好的 - 讓服務端選擇一個隨機的佇列名給我們,我們可以不給queue_declare方法設定queue引數來實現。
[python] view plain copy

 

print?

  1. result = channel.queue_declare()

這樣, result.method.queue 包含一個隨機的佇列名, 比如:看起來像 amq.gen-JzTY20BRgKO-HjmUJj0wLg.

其次:
一旦我們斷開consumer連線,這個佇列名將自動刪除。這裡有一個標識設定:
[python] view plain copy

 

print?

  1. result = channel.queue_declare(exclusive=True)

繫結(Bindings)

我們已經建立了一個 fanout exchange 和一個佇列queue, 現在我們需要告訴exchange傳送訊息到我們的queue中, 這個exchange與佇列queue之間的關係我們成為 繫結(Bindings)
[python] view plain copy

 

print?

  1. channel.queue_bind(exchange='logs',
  2. queue=result.method.queue)

現在logs exchange 將要傳送訊息到我們的佇列

 
[html] view plain copy

 

print?

  1. 你可以在Server端通過rabbitmqctl list_bindings命令檢視繫結資訊

彙總(Putting it all together)


生產者(Producer)程式發出log訊息,和前面介紹的章節沒什麼太大的區別。 主要的改變是我們想要傳送訊息到我們指定的logs exchange,而不是之前的那種匿名的exchange。 我們之前使用匿名exchange傳送訊息時Producer需要提供一個 routing_key,但當我們指定exchange為fanout exchange時,這個值(routing_key)將忽略。下面是 emit_log.py 指令碼:
[python] view plain copy

 

print?

  1. import pika
  2. import sys
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='localhost'))
  5. channel = connection.channel()
  6. channel.exchange_declare(exchange='logs',
  7. type='fanout')
  8. message = ' '.join(sys.argv[1:]) or "info: Hello World!"
  9. channel.basic_publish(exchange='logs',
  10. routing_key='',
  11. body=message)
  12. print(" [x] Sent %r" % message)
  13. connection.close()
 

如你所見, 當建立連線之後我們定義了一個exchange名logs, 由於釋出一個訊息到一個不存在的exchange是禁止的,所以這一步是必須有的。

傳送訊息時,如果還沒有佇列繫結到這個exchange上的話,訊息將會丟失。 但這個對我們來說是OK的;如果還沒有消費者(consumer) 監聽上我們可以安全的放棄這條訊息。
 
receive_logs.py 指令碼 :
[python] view plain copy

 

print?

  1. import pika
  2. connection = pika.BlockingConnection(pika.ConnectionParameters(
  3. host='localhost'))
  4. channel = connection.channel()
  5. channel.exchange_declare(exchange='logs',
  6. type='fanout')
  7. result = channel.queue_declare(exclusive=True)  # 佇列斷開後自動刪除臨時佇列
  8. queue_name = result.method.queue   #  佇列名採用服務端分配的臨時佇列
  9. channel.queue_bind(exchange='logs',
  10. queue=queue_name)
  11. print(' [*] Waiting for logs. To exit press CTRL+C')
  12. def callback(ch, method, properties, body):
  13. print(" [x] %r" % body)
  14. channel.basic_consume(callback,
  15. queue=queue_name,
  16. no_ack=True)
  17. channel.start_consuming()

我們已經完成了,如果你想儲存日誌到一個檔案,只需要開啟終端執行:
[plain] view plain copy

 

print?

  1. $ python receive_logs.py > logs_from_rabbit.log

如果你想在螢幕上檢視輸出的日誌,新開一個終端並執行:

[plain] view plain copy

 

print?

  1. $ python receive_logs.py

當然,發出日誌資訊:

[plain] view plain copy

 

print?

  1. $ python emit_log.py

使用 rabbitmqlctl list_bindings 你能驗證程式碼確實建立了你想要的binding和佇列。執行兩個 receive_logs.py 程式你可以看到:

[plain] view plain copy

 

print?

  1. $ sudo rabbitmqctl list_bindings
  2. Listing bindings ...
  3. logs    exchange        amq.gen-JzTY20BRgKO-HjmUJj0wLg  queue           []
  4. logs    exchange        amq.gen-vso0PVvyiRIL2WoV3i48Yg  queue           []
  5. ...done.

這個結果的解釋非常直白: 從 logs  exchange 出來的資料傳送服務端自動分配的到兩個佇列名中,這也是我們預期的。

三、python系列之 RabbitMQ - RPC

遠端過程呼叫(Remote procedure call (RPC))

在第二課我們學習了怎樣使用 工作佇列(work queues) 來在多個workers之間分發需要消時的 任務

但是如果我們需要在遠端的伺服器上呼叫一個函式並獲取返回結果 我們需要怎麼做呢?well這是一個不一樣的故事。 這中模式通常被稱為遠端過程呼叫或RPC

在這一刻我們將要使用RabbitMQ來建立一個RPC系統:一個客戶端和一個可擴充套件的RPC服務。由於我們沒有任何耗時的任務值得分配,我們將要建立一個仿RPC服務並返回斐波納契數值

客戶端介面(Client interface)

為了闡明RPC服務怎麼使用我們建立一個簡單的客戶端類,將用一個名為Call的方法傳送一個RPC請求並阻塞直到獲取結果:
[python] view plain copy

 

print?

  1. fibonacci_rpc = FibonacciRpcClient()
  2. result = fibonacci_rpc.call(4)
  3. print("fib(4) is %r" % result)

回撥佇列(callback queue)

一般通過RabbitMQ執行RPC是很容易的。 一個客戶端傳送一個請求訊息然後服務端返回一個訊息作為應答。 為了接收返回訊息客戶端需要傳送一個“callback" 佇列請求地址,讓我們試試:
[python] view plain copy

 

print?

  1. result = channel.queue_declare(exclusive=True)
  2. callback_queue = result.method.queue
  3. channel.basic_publish(exchange='',
  4. routing_key='rpc_queue',
  5. properties=pika.BasicProperties(
  6. reply_to = callback_queue,
  7. ),
  8. body=request)
訊息屬性
AMQP協議在一個訊息中預先定義了一個包含14個屬性的集合。大部分屬性很少用到,以下幾種除外:
> delivery_mode: 標記一個訊息為持久的(值為2)或者 瞬時的(其它值), 你需要記住這個屬性(在第二課時用到過)
> content_type : 用來描述 MIME 型別的編碼 ,比如我們經常使用的 JSON 編碼,設定這個屬性就非常好實現: application/json
> reply_to: 經常用來命名一個 callback 佇列
> correlation_id : 用來關聯RPC的請求與應答

關聯ID (Correlation ID)

前面提到的方法我們建議為每個RPC請求建立一個callback佇列。  那是相當低效的,但是幸好有一個更好的方法 -- 我們未每個客戶端建立一個單獨的callback佇列。
但這帶來了一個新的問題, 當在那個佇列中接收了一個返回,我們並不清楚是這個結果時屬於那個請求的,這樣當correlation_id屬性使用後,我們為每個請求設定一個唯一值。然後當我們從callback佇列中接收到一個訊息後,我們檢視一下這個屬性,基於這個我們就能將請求和返回進行匹配。如果我們看到一個未知的correlation_id值,我們可以安全的丟棄這個訊息 -- 不屬於我們的請求
 
你可能會問,為什麼我們要在callback佇列中忽略未知的訊息,而不是通過這個錯誤執行失敗? 這是由於服務端的競爭條件的可能性(??),雖然可能性不大,但在為請求傳送ack訊息之前,當傳送給我們結果後RPC服務還是有死掉的可能。如果發生這樣的情況,讓重啟RPC服務之後將會重新處理請求。 這就是為什麼客戶端必須妥善的處理重複響應。
 

概要(Summary)


我們的RPC將會這樣執行:
>  當客戶端啟動後,它建立一個匿名的唯一的回撥佇列
> 對一個RPC請求, 客戶端傳送一個訊息包含兩個屬性: reply_to (用來設定回撥佇列)和 correlation_id(用來為每個請求設定一個唯一標識)
> 請求傳送到 rpc_queue佇列
> RPC worker( 服務端) 在那個佇列中等待請求,當一個請求出現後,服務端就執行一個job並將結果訊息傳送給客戶端,使用reply_to欄位中的佇列
> 客戶端在callback 佇列中等待資料, 當一個訊息出現後,檢查這個correlation_id屬性,如果和請求中的值匹配將返回給應用
 

整合

rpc_server.py程式碼
 
[python] view plain copy

 

print?

  1. #!/usr/bin/env python
  2. import pika
  3. connection = pika.BlockingConnection(pika.ConnectionParameters(
  4. host='localhost'))
  5. channel = connection.channel()
  6. channel.queue_declare(queue='rpc_queue')
  7. def fib(n):
  8. if n == 0:
  9. return 0
  10. elif n == 1:
  11. return 1
  12. else:
  13. return fib(n-1) + fib(n-2)
  14. def on_request(ch, method, props, body):
  15. n = int(body)
  16. print(" [.] fib(%s)" % n)
  17. response = fib(n)
  18. ch.basic_publish(exchange='',
  19. routing_key=props.reply_to,
  20. properties=pika.BasicProperties(correlation_id = \
  21. props.correlation_id),
  22. body=str(response))
  23. ch.basic_ack(delivery_tag = method.delivery_tag)
  24. channel.basic_qos(prefetch_count=1)
  25. channel.basic_consume(on_request, queue='rpc_queue')
  26. print(" [x] Awaiting RPC requests")
  27. channel.start_consuming()

 
服務端程式碼詳單簡單:
> (4) 和往常一樣我們建立一個連線並定義一個佇列
> (11) 我們定義了  斐波納契 函式,假定輸入的都是合法正數
> (19) 我們定義了一個回撥的 basic_consume, RPC服務的核心。 當收到請求後執行這個函式並返回結果
> (32) 我們可能會執行多個服務端,為了在多個服務端上均勻的分佈負荷,我們需要這是 prefetch_count。
 
rpc_client.py 程式碼:
 
[python] view plain copy

 

print?

  1. #!/usr/bin/env python
  2. import pika
  3. import uuid
  4. class FibonacciRpcClient(object):
  5. def __init__(self):
  6. self.connection = pika.BlockingConnection(pika.ConnectionParameters(
  7. host='localhost'))
  8. self.channel = self.connection.channel()
  9. result = self.channel.queue_declare(exclusive=True)
  10. self.callback_queue = result.method.queue
  11. self.channel.basic_consume(self.on_response, no_ack=True,
  12. queue=self.callback_queue)
  13. def on_response(self, ch, method, props, body):
  14. if self.corr_id == props.correlation_id:
  15. self.response = body
  16. def call(self, n):
  17. self.response = None
  18. self.corr_id = str(uuid.uuid4())
  19. self.channel.basic_publish(exchange='',
  20. routing_key='rpc_queue',
  21. properties=pika.BasicProperties(
  22. reply_to = self.callback_queue,
  23. correlation_id = self.corr_id,
  24. ),
  25. body=str(n))
  26. while self.response is None:
  27. self.connection.process_data_events()
  28. return int(self.response)
  29. fibonacci_rpc = FibonacciRpcClient()
  30. print(" [x] Requesting fib(30)")
  31. response = fibonacci_rpc.call(30)
  32. print(" [.] Got %r" % response)

 
客戶端程式碼稍微複雜些:
> (7) 我們建立一個連線,通道並定義一個專門的’callback‘佇列用來接收回復
> (16) 我們訂閱了“callback”佇列,因此我們能夠接收 RPC 的返回結果
> (18) ’on_response'  在每個返回中執行的回撥是一個簡單的job, 對每個返回訊息將檢查是否correlation_id使我們需要查詢的那個ID,如果是,將儲存結果到 self.response 並終端consuming迴圈
> (23) 下一步,我們定義我們的main方法 - 執行實際的RPC請求
> (24) 在這方法中,首先我們生產一個唯一的 correlatin_id 號並儲存 -- 'on_response"回撥函式將用著號碼來匹配發送和接收的訊息值
> (25) 下一步,釋出請求資訊,使用兩個屬性: reply_to 和 correlation_id
> (32) 這一步我們可以坐等結果的返回
>(33) 最後我們返回結果給使用者
 
我們的RPC服務現在已經就緒,可以開啟服務:
[plain] view plain copy

 

print?

  1. $ python rpc_server.py
  2. [x] Awaiting RPC requests

請求一個斐波那契數,執行客戶端

[python] view plain copy

 

print?

  1. $ python rpc_client.py
  2. [x] Requesting fib(30)

四、redis

1.redis操作
設定值:set name 'wt'   再次執行set name 'qq'  會將name值設定為qq
取值:get name

2.在python中操作如下:

set(name, value, ex=None, px=None, nx=False, xx=False)

1
2
3
4
5
6
在Redis中設定值,預設,不存在則建立,存在則修改
引數:
     ex,過期時間(秒)
     px,過期時間(毫秒)
     nx,如果設定為True,則只有name不存在時,當前set操作才執行
     xx,如果設定為True,則只有name存在時,崗前set操作才執行

setnx(name, value)

1
設定值,只有name不存在時,執行設定操作(新增)

setex(name, value, time)

1
2
3
# 設定值
# 引數:
    # time,過期時間(數字秒 或 timedelta物件)

psetex(name, time_ms, value)

1
2
3
# 設定值
# 引數:
    # time_ms,過期時間(數字毫秒 或 timedelta物件)

mset(*args, **kwargs)

1
2
3
4
5
批量設定值
如:
    mset(k1='v1', k2='v2')
    
    mget({'k1': 'v1', 'k2': 'v2'})

get(name)

1
獲取值

mget(keys, *args)

1
2
3
4
5
批量獲取
如:
    mget('ylr', 'wupeiqi')
    
    r.mget(['ylr', 'wupeiqi'])

getset(name, value)

1
設定新值並獲取原來的值

getrange(key, start, end)

1
2
3
4
5
6
# 獲取子序列(根據位元組獲取,非字元)
# 引數:
    # name,Redis 的 name
    # start,起始位置(位元組)
    # end,結束位置(位元組)
# 如: "武沛齊" ,0-3表示 "武"

setrange(name, offset, value)

1
2
3
4
# 修改字串內容,從指定字串索引開始向後替換(新值太長時,則向後新增)
# 引數:
    # offset,字串的索引,位元組(一個漢字三個位元組)
    # value,要設定的值

setbit(name, offset, value)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
# 對name對應值的二進位制表示的位進行操作
 
# 引數:
    # name,redis的name
    # offset,位的索引(將值變換成二進位制後再進行索引)
    # value,值只能是 1 或 0
 
# 注:如果在Redis中有一個對應: n1 = "foo",
        那麼字串foo的二進位制表示為:01100110 01101111 01101111
    所以,如果執行 setbit('n1', 7, 1),則就會將第7位設定為1
        那麼最終二進位制則變成 01100111 01101111 01101111,即:"goo"
 
# 擴充套件,轉換二進位制表示:
 
    # source = "武沛齊"
    source = "foo"
 
    for i in source:
        num = ord(i)
        print bin(num).replace('b','')
 
    特別的,如果source是漢字 "武沛齊"怎麼辦?
    答:對於utf-8,每一個漢字佔 3 個位元組,那麼 "武沛齊" 則有 9個位元組
       對於漢字,for迴圈時候會按照 位元組 迭代,那麼在迭代時,將每一個位元組轉換 十進位制數,然後再將十進位制數轉換成二進位制
        11100110 10101101 10100110 11100110 10110010 10011011 11101001 10111101 10010000
        -------------------------- ----------------------------- -----------------------------
                    武                         沛                           齊

getbit(name, offset)

1
# 獲取name對應的值的二進位制表示中的某位的值 (0或1)

bitcount(key, start=None, end=None)

1
2
3
4
5
# 獲取name對應的值的二進位制表示中 1 的個數
# 引數:
    # key,Redis的name
    # start,位起始位置
    # end,位結束位置

bitop(operation, dest, *keys)

1
2
3
4
5
6
7
8
9
10
# 獲取多個值,並將值做位運算,將最後的結果儲存至新的name對應的值
 
# 引數:
    # operation,AND(並) 、 OR(或) 、 NOT(非) 、 XOR(異或)
    # dest, 新的Redis的name
    # *keys,要查詢的Redis的name
 
# 如:
    bitop("AND", 'new_name', 'n1', 'n2', 'n3')
    # 獲取Redis中n1,n2,n3對應的值,然後講所有的值做位運算(求並集),然後將結果儲存 new_name 對應的值中

strlen(name)

1
# 返回name對應值的位元組長度(一個漢字3個位元組)

incr(self, name, amount=1)

1
2
3
4
5
6
7
# 自增 name對應的值,當name不存在時,則建立name=amount,否則,則自增。
 
# 引數:
    # name,Redis的name
    # amount,自增數(必須是整數)
 
# 注:同incrby

incrbyfloat(self, name, amount=1.0)

1
2
3
4
5
# 自增 name對應的值,當name不存在時,則建立name=amount,否則,則自增。
 
# 引數:
    # name,Redis的name
    # amount,自增數(浮點型)

decr(self, name, amount=1)

1
2
3
4
5
# 自減 name對應的值,當name不存在時,則建立name=amount,否則,則自減。
 
# 引數:
    # name,Redis的name
    # amount,自減數(整數)

append(key, value)

1
2
3
4
5
# 在redis name對應的值後面追加內容
 
# 引數:
    key, redis的name
    value, 要追加的字串

  

Hash操作,redis中Hash在記憶體中的儲存格式如下圖:

hset(name, key, value)

1
2
3
4
5
6
7
8
9
# name對應的hash中設定一個鍵值對(不存在,則建立;否則,修改)
 
# 引數:
    # name,redis的name
    # key,name對應的hash中的key
    # value,name對應的hash中的value
 
# 注:
    # hsetnx(name, key, value),當name對應的hash中不存在當前key時則建立(相當於新增)

hmset(name, mapping)

1
2
3
4
5
6
7
8
# 在name對應的hash中批量設定鍵值對
 
# 引數:
    # name,redis的name
    # mapping,字典,如:{'k1':'v1', 'k2': 'v2'}
 
# 如:
    # r.hmset('xx', {'k1':'v1', 'k2': 'v2'})

hget(name,key)

1
# 在name對應的hash中獲取根據key獲取value

hmget(name, keys, *args)

1
2
3
4
5
6
7
8
9
10
11
# 在name對應的hash中獲取多個key的值
 
# 引數:
    # name,reids對應的name
    # keys,要獲取key集合,如:['k1', 'k2', 'k3']
    # *args,要獲取的key,如:k1,k2,k3
 
# 如:
    # r.mget('xx', ['k1', 'k2'])
    # 或
    # print r.hmget('xx', 'k1', 'k2')

hgetall(name)

1
獲取name對應hash的所有鍵值

hlen(name)

1
# 獲取name對應的hash中鍵值對的個數

hkeys(name)

1
# 獲取name對應的hash中所有的key的值

hvals(name)

1
# 獲取name對應的hash中所有的value的值

hexists(name, key)

1
# 檢查name對應的hash是否存在當前傳入的key

hdel(name,*keys)

1
# 將name對應的hash中指定key的鍵值對刪除

hincrby(name, key, amount=1)

1
2
3
4
5
# 自增name對應的hash中的指定key的值,不存在則建立key=amount
# 引數:
    # name,redis中的name
    # key, hash對應的key
    # amount,自增數(整數)

hincrbyfloat(name, key, amount=1.0)

1
2
3
4
5
6
7
8
# 自增name對應的hash中的指定key的值,不存在則建立key=amount
 
# 引數:
    # name,redis中的name
    # key, hash對應的key
    # amount,自增數(浮點數)
 
# 自增name對應的hash中的指定key的值,不存在則建立key=amount

hscan(name, cursor=0, match=None, count=None)

1
2
3
4
5
6
7
8
9
10
11
12
13
# 增量式迭代獲取,對於資料大的資料非常有用,hscan可以實現分片的獲取資料,並非一次性將資料全部獲取完,從而放置記憶體被撐爆
 
# 引數:
    # name,redis的name
    # cursor,遊標(基於遊標分批取獲取資料)
    # match,匹配指定key,預設None 表示所有的key
    # count,每次分片最少獲取個數,預設None表示採用Redis的預設分片個數
 
# 如:
    # 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None)
    # 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None)
    # ...
    # 直到返回值cursor的值為0時,表示資料已經通過分片獲取完畢

hscan_iter(name, match=None, count=None)

1
2
3
4
5
6
7
8
9
# 利用yield封裝hscan建立生成器,實現分批去redis中獲取資料
 
# 引數:
    # match,匹配指定key,預設None 表示所有的key
    # count,每次分片最少獲取個數,預設None表示採用Redis的預設分片個數
 
# 如:
    # for item in r.hscan_iter('xx'):
    #     print item

  

List操作,redis中的List在在記憶體中按照一個name對應一個List來儲存。如圖:

lpush(name,values)

1
2
3
4
5
6
7
8
# 在name對應的list中新增元素,每個新的元素都新增到列表的最左邊
 
# 如:
    # r.lpush('oo', 11,22,33)
    # 儲存順序為: 33,22,11
 
# 擴充套件:
    # rpush(name, values) 表示從右向左操作

lpushx(name,value)

1
2
3
4
# 在name對應的list中新增元素,只有name已經存在時,值新增到列表的最左邊
 
# 更多:
    # rpushx(name, value) 表示從右向左操作

llen(name)

1
# name對應的list元素的個數

linsert(name, where, refvalue, value))

1
2
3
4
5
6
7
# 在name對應的列表的某一個值前或後插入一個新值
 
# 引數:
    # name,redis的name
    # where,BEFORE或AFTER
    # refvalue,標杆值,即:在它前後插入資料
    # value,要插入的資料

r.lset(name, index, value)

1
2
3
4
5
6
# 對name對應的list中的某一個索引位置重新賦值
 
# 引數:
    # name,redis的name
    # index,list的索引位置
    # value,要設定的值

r.lrem(name, value, num)

1
2
3
4
5
6
7
8
# 在name對應的list中刪除指定的值
 
# 引數:
    # name,redis的name
    # value,要刪除的值
    # num,  num=0,刪除列表中所有的指定值;
           # num=2,從前到後,刪除2個;
           # num=-2,從後向前,刪除2個

lpop(name)

1
2
3
4
# 在name對應的列表的左側獲取第一個元素並在列表中移除,返回值則是第一個元素
 
# 更多:
    # rpop(name) 表示從右向左操作

lindex(name, index)

1
在name對應的列表中根據索引獲取列表元素

lrange(name, start, end)

1
2
3
4
5
# 在name對應的列表分片獲取資料
# 引數:
    # name,redis的name
    # start,索引的起始位置
    # end,索引結束位置

ltrim(name, start, end)

1
2
3
4
5
# 在name對應的列表中移除沒有在start-end索引之間的值
# 引數:
    # name,redis的name
    # start,索引的起始位置
    # end,索引結束位置

rpoplpush(src, dst)

1
2
3
4
# 從一個列表取出最右邊的元素,同時將其新增至另一個列表的最左邊
# 引數:
    # src,要取資料的列表的name
    # dst,要新增資料的列表的name

blpop(keys, timeout)

1
2
3
4
5
6
7
8
# 將多個列表排列,按照從左到右去pop對應列表的元素
 
# 引數:
    # keys,redis的name的集合
    # timeout,超時時間,當元素所有列表的元素獲取完之後,阻塞等待列表內有資料的時間(秒), 0 表示永遠阻塞
 
# 更多:
    # r.brpop(keys, timeout),從右向左獲取資料

brpoplpush(src, dst, timeout=0)

1
2
3
4
5
6
# 從一個列表的右側移除一個元素並將其新增到另一個列表的左側
 
# 引數:
    # src,取出並要移除元素的列表對應的name
    # dst,要插入元素的列表對應的name
    # timeout,當src對應的列表中沒有資料時,阻塞等待其有資料的超時時間(秒),0 表示永遠阻塞

自定義增量迭代

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# 由於redis類庫中沒有提供對列表元素的增量迭代,如果想要迴圈name對應的列表的所有元素,那麼就需要:
    # 1、獲取name對應的所有列表
    # 2、迴圈列表
# 但是,如果列表非常大,那麼就有可能在第一步時就將程式的內容撐爆,所有有必要自定義一個增量迭代的功能:
 
def list_iter(name):
    """
    自定義redis列表增量迭代
    :param name: redis中的name,即:迭代name對應的列表
    :return: yield 返回 列表元素
    """
    list_count = r.llen(name)
    for index in xrange(list_count):
        yield r.lindex(name, index)
 
# 使用
for item in list_iter('pp'):
    print item

Set操作,Set集合就是不允許重複的列表

sadd(name,values)

1
# name對應的集合中新增元素

scard(name)

1
獲取name對應的集合中元素個數

sdiff(keys, *args)

1
在第一個name對應的集合中且不在其他name對應的集合的元素集合

sdiffstore(dest, keys, *args)

1
# 獲取第一個name對應的集合中且不在其他name對應的集合,再將其新加入到dest對應的集合中

sinter(keys, *args)

1
# 獲取多一個name對應集合的並集

sinterstore(dest, keys, *args)

1
# 獲取多一個name對應集合的並集,再講其加入到dest對應的集合中

sismember(name, value)

1
# 檢查value是否是name對應的集合的成員

smembers(name)

1
# 獲取name對應的集合的所有成員

smove(src, dst, value)

1
# 將某個成員從一個集合中移動到另外一個集合

spop(name)

1
# 從集合的右側(尾部)移除一個成員,並將其返回

srandmember(name, numbers)

1
# 從name對應的集合中隨機獲取 numbers 個元素

srem(name, values)

1
# 在name對應的集合中刪除某些值

sunion(keys, *args)

1
# 獲取多一個name對應的集合的並集

sunionstore(dest,keys, *args)

1
# 獲取多一個name對應的集合的並集,並將結果儲存到dest對應的集合中

sscan(name, cursor=0, match=None, count=None)
sscan_iter(name, match=None, count=None)

1
# 同字串的操作,用於增量迭代分批獲取元素,避免記憶體消耗太大

有序集合,在集合的基礎上,為每元素排序;元素的排序需要根據另外一個值來進行比較,所以,對於有序集合,每一個元素有兩個值,即:值和分數,分數專門用來做排序。

zadd(name, *args, **kwargs)

1
2
3
4
5
# 在name對應的有序集合中新增元素
# 如:
     # zadd('zz', 'n1', 1, 'n2', 2)
     # 或
     # zadd('zz', n1=11, n2=22)

zcard(name)

1
# 獲取name對應的有序集合元素的數量

zcount(name, min, max)

1
# 獲取name對應的有序集合中分數 在 [min,max] 之間的個數

zincrby(name, value, amount)

1
# 自增name對應的有序集合的 name 對應的分數

r.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# 按照索引範圍獲取name對應的有序集合的元素
 
# 引數:
    # name,redis的name
    # start,有序集合索引起始位置(非分數)
    # end,有序集合索引結束位置(非分數)
    # desc,排序規則,預設按照分數從小到大排序
    # withscores,是否獲取元素的分數,預設只獲取元素的值
    # score_cast_func,對分數進行資料轉換的函式
 
# 更多:
    # 從大到小排序
    # zrevrange(name, start, end, withscores=False, score_cast_func=float)
 
    # 按照分數範圍獲取name對應的有序集合的元素
    # zrangebyscore(name, min, max, start=None, num=None, withscores=False, score_cast_func=float)
    # 從大到小排序
    # zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score_cast_func=float)

zrank(name, value)

1
2
3
4
# 獲取某個值在 name對應的有序集合中的排行(從 0 開始)
 
# 更多:
    # zrevrank(name, value),從大到小排序

zrangebylex(name, min, max, start=None, num=None)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
# 當有序集合的所有成員都具有相同的分值時,有序集合的元素會根據成員的 值 (lexicographical ordering)來進行排序,而這個命令則可以返回給定的有序集合鍵 key 中, 元素的值介於 min 和 max 之間的成員
# 對集合中的每個成員進行逐個位元組的對比(byte-by-byte compare), 並按照從低到高的順序, 返回排序後的集合成員。 如果兩個字串有一部分內容是相同的話, 那麼命令會認為較長的字串比較短的字串要大
 
# 引數:
    # name,redis的name
    # min,左區間(值)。 + 表示正無限; - 表示負無限; ( 表示開區間; [ 則表示閉區間
    # min,右區間(值)
    # start,對結果進行分片處理,索引位置
    # num,對結果進行分片處理,索引後面的num個元素
 
# 如:
    # ZADD myzset 0 aa 0 ba 0 ca 0 da 0 ea 0 fa 0 ga
    # r.zrangebylex('myzset', "-", "[ca") 結果為:['aa', 'ba', 'ca']
 
# 更多:
    # 從大到小排序
    # zrevrangebylex(name, max, min, start=None, num=None)

zrem(name, values)

1
2
3
# 刪除name對應的有序集合中值是values的成員
 
# 如:zrem('zz', ['s1', 's2'])

zremrangebyrank(name, min, max)

1
# 根據排行範圍刪除

zremrangebyscore(name, min, max)

1
# 根據分數範圍刪除

zremrangebylex(name, min, max)

1
# 根據值返回刪除

zscore(name, value)

1
# 獲取name對應有序集合中 value 對應的分數

zinterstore(dest, keys, aggregate=None)

1
2
# 獲取兩個有序集合的交集,如果遇到相同值不同分數,則按照aggregate進行操作
# aggregate的值為:  SUM  MIN  MAX

zunionstore(dest, keys, aggregate=None)

1
2
# 獲取兩個有序集合的並集,如果遇到相同值不同分數,則按照aggregate進行操作
# aggregate的值為:  SUM  MIN  MAX

zscan(name, cursor=0, match=None, count=None, score_cast_func=float)
zscan_iter(name, match=None, count=None,score_cast_func=float)

1
# 同字串相似,相較於字串新增score_cast_func,用來對分數進行操作

  

其他常用操作

delete(*names)

1
# 根據刪除redis中的任意資料型別

exists(name)

1
# 檢測redis的name是否存在

keys(pattern='*')

1
2
3
4
5
6
7
# 根據模型獲取redis的name
 
# 更多:
    # KEYS * 匹配資料庫中所有 key 。
    # KEYS h?llo 匹配 hello , hallo 和 hxllo 等。
    # KEYS h*llo 匹配 hllo 和 heeeeello 等。
    # KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo

expire(name ,time)

1
# 為某個redis的某個name設定超時時間

rename(src, dst)

1
# 對redis的name重新命名為

move(name, db))

1
# 將redis的某個值移動到指定的db下

randomkey()

1
# 隨機獲取一個redis的name(不刪除)

type(name)

1
# 獲取name對應值的型別

scan(cursor=0, match=None, count=None)
scan_iter(match=None, count=None)

1
# 同字串操作,用於增量迭代獲取key

 

4、管道

redis-py預設在執行每次請求都會建立(連線池申請連線)和斷開(歸還連線池)一次連線操作,如果想要在一次請求中指定多個命令,則可以使用pipline實現一次請求指定多個命令,並且預設情況下一次pipline 是原子性操作。

 
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
import redis
 
pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
 
r = redis.Redis(connection_pool=pool)
 
# pipe = r.pipeline(transaction=False)
pipe = r.pipeline(transaction=True)#True為開啟同時請求多個指令的功能
 
pipe.set('name', 'alex')
pipe.set('role', 'sb')
 
pipe.execute()