1. 程式人生 > >redis - Sentinel 和 cluster

redis - Sentinel 和 cluster

環境配置 multi under profile 保存數據 有用 roc 好運 復制

  

redis哨兵集群

引入

上回說到redis主從同步時,master(主庫)如果宕機了怎麽解決...

我給出了一個手動解決的辦法!

但實際上,如果你配置了Sentinel,它能自動發現master宕機並且進行自動切換slave(從庫)變master 。

sentinel(哨兵)主要功能如下:

  • 不時的監控redis是否良好運行,如果節點不可達就會對節點進行下線標識
  • 如果被標識的是主節點,sentinel就會和其他的sentinel節點“協商”,如果其他節點也人為主節點不可達,就會選舉一個sentinel節點來完成自動故障轉義
  • 在master-slave進行切換後,master_redis.conf、slave_redis.conf和sentinel.conf的內容都會發生改變,即master_redis.conf中會多一行slaveof的配置,sentinel.conf的監控目標會隨之調換

安裝配置

實驗環境:CentOS7虛擬機一臺

配置:

  一主(6379)兩從(6380,6381)

  三個 sentinel 檢測主節點(26379,26380,26381)

存放位置自定義,運行程序時切換到改文件即可。

在正式環境中,需按照公司需求,安裝配置在不同的linux上。

具體步驟請參考上一篇博客 本篇博客不做詳細講解~

1,先準備三個redis實例,

技術分享圖片
port 6379
daemonize yes
logfile "6379.log"
dbfilename "dump-6379.rdb"
dir "/var/redis/data/"
redis-6379.conf
技術分享圖片
port 6380
daemonize yes
logfile "6380.log"
dbfilename "dump-6380.rdb"
dir "/var/redis/data/"
slaveof 127.0.0.1 6379
redis-6380.conf 技術分享圖片
port 6381
daemonize yes
logfile "6381.log"
dbfilename "dump-6381.rdb"
dir "/var/redis/data/"
slaveof 127.0.0.1 6379
redis-6381.conf 技術分享圖片
# Redis 配置文件

# 當配置中需要配置內存大小時,可以使用 1k, 5GB, 4M 等類似的格式,其轉換方式如下(不區分大小寫)
# # 1k => 1000 bytes # 1kb => 1024 bytes # 1m => 1000000 bytes # 1mb => 1024*1024 bytes # 1g => 1000000000 bytes # 1gb => 1024*1024*1024 bytes # # 內存配置大小寫是一樣的.比如 1gb 1Gb 1GB 1gB # daemonize no 默認情況下,redis不是在後臺運行的,如果需要在後臺運行,把該項的值更改為yes daemonize yes # 當redis在後臺運行的時候,Redis默認會把pid文件放在/var/run/redis.pid,你可以配置到其他地址。 # 當運行多個redis服務時,需要指定不同的pid文件和端口 pidfile /var/run/redis.pid # 指定redis運行的端口,默認是6379 port 6379 # 指定redis只接收來自於該IP地址的請求,如果不進行設置,那麽將處理所有請求, # 在生產環境中最好設置該項 # bind 127.0.0.1 # Specify the path for the unix socket that will be used to listen for # incoming connections. There is no default, so Redis will not listen # on a unix socket when not specified. # # unixsocket /tmp/redis.sock # unixsocketperm 755 # 設置客戶端連接時的超時時間,單位為秒。當客戶端在這段時間內沒有發出任何指令,那麽關閉該連接 # 0是關閉此設置 timeout 0 # 指定日誌記錄級別 # Redis總共支持四個級別:debug、verbose、notice、warning,默認為verbose # debug 記錄很多信息,用於開發和測試 # varbose 有用的信息,不像debug會記錄那麽多 # notice 普通的verbose,常用於生產環境 # warning 只有非常重要或者嚴重的信息會記錄到日誌 loglevel debug # 配置log文件地址 # 默認值為stdout,標準輸出,若後臺模式會輸出到/dev/null #logfile stdout logfile /var/log/redis/redis.log # To enable logging to the system logger, just set ‘syslog-enabled‘ to yes, # and optionally update the other syslog parameters to suit your needs. # syslog-enabled no # Specify the syslog identity. # syslog-ident redis # Specify the syslog facility. Must be USER or between LOCAL0-LOCAL7. # syslog-facility local0 # 可用數據庫數 # 默認值為16,默認數據庫為0,數據庫範圍在0-(database-1)之間 databases 16 ################################ 快照 ################################# # # 保存數據到磁盤,格式如下: # # save <seconds> <changes> # # 指出在多長時間內,有多少次更新操作,就將數據同步到數據文件rdb。 # 相當於條件觸發抓取快照,這個可以多個條件配合 # # 比如默認配置文件中的設置,就設置了三個條件 # # save 900 1 900秒內至少有1個key被改變 # save 300 10 300秒內至少有300個key被改變 # save 60 10000 60秒內至少有10000個key被改變 save 900 1 save 300 10 save 60 10000 # 存儲至本地數據庫時(持久化到rdb文件)是否壓縮數據,默認為yes rdbcompression yes # 本地持久化數據庫文件名,默認值為dump.rdb dbfilename dump.rdb # 工作目錄 # # 數據庫鏡像備份的文件放置的路徑。 # 這裏的路徑跟文件名要分開配置是因為redis在進行備份時,先會將當前數據庫的狀態寫入到一個臨時文件中,等備份完成時, # 再把該該臨時文件替換為上面所指定的文件,而這裏的臨時文件和上面所配置的備份文件都會放在這個指定的路徑當中。 # # AOF文件也會存放在這個目錄下面 # # 註意這裏必須制定一個目錄而不是文件 dir ./ ################################# 復制 ################################# # 主從復制. 設置該數據庫為其他數據庫的從數據庫. # 設置當本機為slav服務時,設置master服務的IP地址及端口,在Redis啟動時,它會自動從master進行數據同步 # # slaveof <masterip> <masterport> # 當master服務設置了密碼保護時(用requirepass制定的密碼) # slav服務連接master的密碼 # # masterauth <master-password> # 當從庫同主機失去連接或者復制正在進行,從機庫有兩種運行方式: # # 1) 如果slave-serve-stale-data設置為yes(默認設置),從庫會繼續相應客戶端的請求 # # 2) 如果slave-serve-stale-data是指為no,出去INFO和SLAVOF命令之外的任何請求都會返回一個 # 錯誤"SYNC with master in progress" # slave-serve-stale-data yes # 從庫會按照一個時間間隔向主庫發送PINGs.可以通過repl-ping-slave-period設置這個時間間隔,默認是10秒 # # repl-ping-slave-period 10 # repl-timeout 設置主庫批量數據傳輸時間或者ping回復時間間隔,默認值是60秒 # 一定要確保repl-timeout大於repl-ping-slave-period # repl-timeout 60 ################################## 安全 ################################### # 設置客戶端連接後進行任何其他指定前需要使用的密碼。 # 警告:因為redis速度相當快,所以在一臺比較好的服務器下,一個外部的用戶可以在一秒鐘進行150K次的密碼嘗試,這意味著你需要指定非常非常強大的密碼來防止暴力破解 # # requirepass foobared # 命令重命名. # # 在一個共享環境下可以重命名相對危險的命令。比如把CONFIG重名為一個不容易猜測的字符。 # # 舉例: # # rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52 # # 如果想刪除一個命令,直接把它重命名為一個空字符""即可,如下: # # rename-command CONFIG "" ################################### 約束 #################################### # 設置同一時間最大客戶端連接數,默認無限制,Redis可以同時打開的客戶端連接數為Redis進程可以打開的最大文件描述符數, # 如果設置 maxclients 0,表示不作限制。 # 當客戶端連接數到達限制時,Redis會關閉新的連接並向客戶端返回max number of clients reached錯誤信息 # # maxclients 128 # 指定Redis最大內存限制,Redis在啟動時會把數據加載到內存中,達到最大內存後,Redis會先嘗試清除已到期或即將到期的Key # Redis同時也會移除空的list對象 # # 當此方法處理後,仍然到達最大內存設置,將無法再進行寫入操作,但仍然可以進行讀取操作 # # 註意:Redis新的vm機制,會把Key存放內存,Value會存放在swap區 # # maxmemory的設置比較適合於把redis當作於類似memcached的緩存來使用,而不適合當做一個真實的DB。 # 當把Redis當做一個真實的數據庫使用的時候,內存使用將是一個很大的開銷 # maxmemory <bytes> # 當內存達到最大值的時候Redis會選擇刪除哪些數據?有五種方式可供選擇 # # volatile-lru -> 利用LRU算法移除設置過過期時間的key (LRU:最近使用 Least Recently Used ) # allkeys-lru -> 利用LRU算法移除任何key # volatile-random -> 移除設置過過期時間的隨機key # allkeys->random -> remove a random key, any key # volatile-ttl -> 移除即將過期的key(minor TTL) # noeviction -> 不移除任何可以,只是返回一個寫錯誤 # # 註意:對於上面的策略,如果沒有合適的key可以移除,當寫的時候Redis會返回一個錯誤 # # 寫命令包括: set setnx setex append # incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd # sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby # zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby # getset mset msetnx exec sort # # 默認是: # # maxmemory-policy volatile-lru # LRU 和 minimal TTL 算法都不是精準的算法,但是相對精確的算法(為了節省內存),隨意你可以選擇樣本大小進行檢測。 # Redis默認的灰選擇3個樣本進行檢測,你可以通過maxmemory-samples進行設置 # # maxmemory-samples 3 ############################## AOF ############################### # 默認情況下,redis會在後臺異步的把數據庫鏡像備份到磁盤,但是該備份是非常耗時的,而且備份也不能很頻繁,如果發生諸如拉閘限電、拔插頭等狀況,那麽將造成比較大範圍的數據丟失。 # 所以redis提供了另外一種更加高效的數據庫備份及災難恢復方式。 # 開啟append only模式之後,redis會把所接收到的每一次寫操作請求都追加到appendonly.aof文件中,當redis重新啟動時,會從該文件恢復出之前的狀態。 # 但是這樣會造成appendonly.aof文件過大,所以redis還支持了BGREWRITEAOF指令,對appendonly.aof 進行重新整理。 # 你可以同時開啟asynchronous dumps 和 AOF appendonly no # AOF文件名稱 (默認: "appendonly.aof") # appendfilename appendonly.aof # Redis支持三種同步AOF文件的策略: # # no: 不進行同步,系統去操作 . Faster. # always: always表示每次有寫操作都進行同步. Slow, Safest. # everysec: 表示對寫操作進行累積,每秒同步一次. Compromise. # # 默認是"everysec",按照速度和安全折中這是最好的。 # 如果想讓Redis能更高效的運行,你也可以設置為"no",讓操作系統決定什麽時候去執行 # 或者相反想讓數據更安全你也可以設置為"always" # # 如果不確定就用 "everysec". # appendfsync always appendfsync everysec # appendfsync no # AOF策略設置為always或者everysec時,後臺處理進程(後臺保存或者AOF日誌重寫)會執行大量的I/O操作 # 在某些Linux配置中會阻止過長的fsync()請求。註意現在沒有任何修復,即使fsync在另外一個線程進行處理 # # 為了減緩這個問題,可以設置下面這個參數no-appendfsync-on-rewrite # # This means that while another child is saving the durability of Redis is # the same as "appendfsync none", that in pratical terms means that it is # possible to lost up to 30 seconds of log in the worst scenario (with the # default Linux settings). # # If you have latency problems turn this to "yes". Otherwise leave it as # "no" that is the safest pick from the point of view of durability. no-appendfsync-on-rewrite no # Automatic rewrite of the append only file. # AOF 自動重寫 # 當AOF文件增長到一定大小的時候Redis能夠調用 BGREWRITEAOF 對日誌文件進行重寫 # # 它是這樣工作的:Redis會記住上次進行些日誌後文件的大小(如果從開機以來還沒進行過重寫,那日子大小在開機的時候確定) # # 基礎大小會同現在的大小進行比較。如果現在的大小比基礎大小大制定的百分比,重寫功能將啟動 # 同時需要指定一個最小大小用於AOF重寫,這個用於阻止即使文件很小但是增長幅度很大也去重寫AOF文件的情況 # 設置 percentage 為0就關閉這個特性 auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb ################################## SLOW LOG ################################### # Redis Slow Log 記錄超過特定執行時間的命令。執行時間不包括I/O計算比如連接客戶端,返回結果等,只是命令執行時間 # # 可以通過兩個參數設置slow log:一個是告訴Redis執行超過多少時間被記錄的參數slowlog-log-slower-than(微妙), # 另一個是slow log 的長度。當一個新命令被記錄的時候最早的命令將被從隊列中移除 # 下面的時間以微妙微單位,因此1000000代表一分鐘。 # 註意制定一個負數將關閉慢日誌,而設置為0將強制每個命令都會記錄 slowlog-log-slower-than 10000 # 對日誌長度沒有限制,只是要註意它會消耗內存 # 可以通過 SLOWLOG RESET 回收被慢日誌消耗的內存 slowlog-max-len 1024 ################################ VM ############################### ### WARNING! Virtual Memory is deprecated in Redis 2.4 ### The use of Virtual Memory is strongly discouraged. # Virtual Memory allows Redis to work with datasets bigger than the actual # amount of RAM needed to hold the whole dataset in memory. # In order to do so very used keys are taken in memory while the other keys # are swapped into a swap file, similarly to what operating systems do # with memory pages. # # To enable VM just set ‘vm-enabled‘ to yes, and set the following three # VM parameters accordingly to your needs. vm-enabled no # vm-enabled yes # This is the path of the Redis swap file. As you can guess, swap files # can‘t be shared by different Redis instances, so make sure to use a swap # file for every redis process you are running. Redis will complain if the # swap file is already in use. # # The best kind of storage for the Redis swap file (that‘s accessed at random) # is a Solid State Disk (SSD). # # *** WARNING *** if you are using a shared hosting the default of putting # the swap file under /tmp is not secure. Create a dir with access granted # only to Redis user and configure Redis to create the swap file there. vm-swap-file /tmp/redis.swap # vm-max-memory configures the VM to use at max the specified amount of # RAM. Everything that deos not fit will be swapped on disk *if* possible, that # is, if there is still enough contiguous space in the swap file. # # With vm-max-memory 0 the system will swap everything it can. Not a good # default, just specify the max amount of RAM you can in bytes, but it‘s # better to leave some margin. For instance specify an amount of RAM # that‘s more or less between 60 and 80% of your free RAM. vm-max-memory 0 # Redis swap files is split into pages. An object can be saved using multiple # contiguous pages, but pages can‘t be shared between different objects. # So if your page is too big, small objects swapped out on disk will waste # a lot of space. If you page is too small, there is less space in the swap # file (assuming you configured the same number of total swap file pages). # # If you use a lot of small objects, use a page size of 64 or 32 bytes. # If you use a lot of big objects, use a bigger page size. # If unsure, use the default :) vm-page-size 32 # Number of total memory pages in the swap file. # Given that the page table (a bitmap of free/used pages) is taken in memory, # every 8 pages on disk will consume 1 byte of RAM. # # The total swap size is vm-page-size * vm-pages # # With the default of 32-bytes memory pages and 134217728 pages Redis will # use a 4 GB swap file, that will use 16 MB of RAM for the page table. # # It‘s better to use the smallest acceptable value for your application, # but the default is large in order to work in most conditions. vm-pages 134217728 # Max number of VM I/O threads running at the same time. # This threads are used to read/write data from/to swap file, since they # also encode and decode objects from disk to memory or the reverse, a bigger # number of threads can help with big objects even if they can‘t help with # I/O itself as the physical device may not be able to couple with many # reads/writes operations at the same time. # # The special value of 0 turn off threaded I/O and enables the blocking # Virtual Memory implementation. vm-max-threads 4 ############################### ADVANCED CONFIG ############################### # 當hash中包含超過指定元素個數並且最大的元素沒有超過臨界時, # hash將以一種特殊的編碼方式(大大減少內存使用)來存儲,這裏可以設置這兩個臨界值 # Redis Hash對應Value內部實際就是一個HashMap,實際這裏會有2種不同實現, # 這個Hash的成員比較少時Redis為了節省內存會采用類似一維數組的方式來緊湊存儲,而不會采用真正的HashMap結構,對應的value redisObject的encoding為zipmap, # 當成員數量增大時會自動轉成真正的HashMap,此時encoding為ht。 hash-max-zipmap-entries 512 hash-max-zipmap-value 64 # list數據類型多少節點以下會采用去指針的緊湊存儲格式。 # list數據類型節點值大小小於多少字節會采用緊湊存儲格式。 list-max-ziplist-entries 512 list-max-ziplist-value 64 # set數據類型內部數據如果全部是數值型,且包含多少節點以下會采用緊湊格式存儲。 set-max-intset-entries 512 # zsort數據類型多少節點以下會采用去指針的緊湊存儲格式。 # zsort數據類型節點值大小小於多少字節會采用緊湊存儲格式。 zset-max-ziplist-entries 128 zset-max-ziplist-value 64 # Redis將在每100毫秒時使用1毫秒的CPU時間來對redis的hash表進行重新hash,可以降低內存的使用 # # 當你的使用場景中,有非常嚴格的實時性需要,不能夠接受Redis時不時的對請求有2毫秒的延遲的話,把這項配置為no。 # # 如果沒有這麽嚴格的實時性要求,可以設置為yes,以便能夠盡可能快的釋放內存 activerehashing yes ################################## INCLUDES ################################### # 指定包含其它的配置文件,可以在同一主機上多個Redis實例之間使用同一份配置文件,而同時各個實例又擁有自己的特定配置文件 # include /path/to/local.conf # include /path/to/other.conf
附:redis.conf詳解

2,啟動三個數據庫實例

# redis-server  redis-6379.conf
# redis-server  redis-6380.conf
# redis-server  redis-6381.conf

3,準備三個哨兵文件,監控主從架構

技術分享圖片
// Sentinel節點的端口
port 26379  
dir /var/redis/data/
logfile "26379.log"

// 當前Sentinel節點監控 127.0.0.1:6379 這個主節點
// 2代表判斷主節點失敗至少需要2個Sentinel節點節點同意
// mymaster是主節點的別名
sentinel monitor qsmaster  127.0.0.1 6379 2

//每個Sentinel節點都要定期PING命令來判斷Redis數據節點和其余Sentinel節點是否可達,如果超過30000毫秒30s且沒有回復,則判定不可達
sentinel down-after-milliseconds qsmaster 30000

//當Sentinel節點集合對主節點故障判定達成一致時,Sentinel領導者節點會做故障轉移操作,選出新的主節點,
原來的從節點會向新的主節點發起復制操作,限制每次向新的主節點發起復制操作的從節點個數為1
sentinel parallel-syncs qsmaster 1

//故障轉移超時時間為180000毫秒
sentinel failover-timeout qsmaster 180000

//後臺運行服務端
daemonize yes 
redis-26379.conf

註意:避免沖突,復制前刪除註釋

技術分享圖片
port 26380  
dir /var/redis/data/
logfile "26380.log"
sentinel monitor qsmaster  127.0.0.1 6379 2
sentinel down-after-milliseconds qsmaster 30000
sentinel parallel-syncs qsmaster 1
sentinel failover-timeout qsmaster 180000
daemonize yes 
redis-26380.conf 技術分享圖片
port 26381  
dir /var/redis/data/
logfile "26381.log"
sentinel monitor qsmaster  127.0.0.1 6379 2
sentinel down-after-milliseconds qsmaster 30000
sentinel parallel-syncs qsmaster 1
sentinel failover-timeout qsmaster 180000
daemonize yes 
redis-26381.conf

4,分別啟動三個哨兵實例

# redis-sentinel redis-26379.conf 
# redis-sentinel redis-26380.conf 
# redis-sentinel redis-26381.conf

註意: 如果發現不成功,需要刪掉所有的哨兵配置文件,從新來過

5,檢查哨兵狀態是否正常,

# redis-cli -p 26379 info sentinel  # 查看配置

# 配置如下表示正常
# Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=qsmaster,status=ok,address=127.0.0.1:6380,slaves=2,sentinels=3
# 哨兵主節點名字叫做mymaster,狀態ok,監控地址是127.0.0.1:6379,有兩個從節點,3個哨兵

故障實驗

大致思路

  • 殺掉主節點的redis進程6379端口,觀察從節點是否會進行新的master選舉,進行切換
  • 重新恢復舊的“master”節點,查看此時的redis身份

1,首先查看三個redis的進程狀態

ps -ef|grep redis

2,幹掉master , 然後等待其他倆個節點是否自動被哨兵切換主從身份

kill 進程pid  #幹掉master進程

技術分享圖片

3,再查看另外兩個slave的狀態

  發現其中一個節點變為主節點(隨機的)

4,然後再開啟主節點6379,檢查三個節點的復制身份狀態

  此時,6379狀態已經變成 slave 了

技術分享圖片第一個 技術分享圖片第二個 技術分享圖片第三個

redis-cluster

引入

  1,redis官方生成可以達到 10萬/每秒,每秒執行10萬條命令。

    假如業務需要每秒100萬的命令執行呢?

  1,一臺服務器內存正常是16~256G。

    假如你的業務需要500G內存,那怎麽辦?

正確的應該是考慮分布式,加機器,把數據分到不同的位置,分攤集中式的壓力,一堆機器做一件事

cluster實例及配置

使用方式: 官方提供通過ruby語言的腳本一鍵安裝

1,環境配置

redis支持多實例的功能,我們在單機演示集群搭建,需要6個實例,三個是主節點,三個是從節點,數量為6個節點才能保證高可用的集群。

通過配置,開啟redis-cluster

port 7000
daemonize yes
dir "/opt/redis/data"
logfile "7000.log"
dbfilename "dump-7000.rdb"
cluster-enabled yes   # 開啟集群模式
cluster-config-file nodes-7000.conf  # 集群內部的配置文件
cluster-require-full-coverage no  # redis cluster需要16384個slot都正常的時候才能對外提供服務,換句話說,只要任何一個slot異常那麽整個cluster不對外提供服務。 因此生產環境一般為no

每個節點僅僅是端口運行的不同!

[root@localhost /opt/redis/config 17:12:30]#ls
redis-7000.conf  redis-7002.conf  redis-7004.conf
redis-7001.conf  redis-7003.conf  redis-7005.conf

#確保每個配置文件中的端口修改!!

2,分別運行redis實例

# redis-server redis-7000.conf
# redis-server redis-7001.conf
# redis-server redis-7002.conf
# redis-server redis-7003.conf
# redis-server redis-7004.conf
# redis-server redis-7005.conf

註意:此時集群還不可用

3,準備ruby的編程環境

# 1.下載ruby的源碼包
wget https://cache.ruby-lang.org/pub/ruby/2.3/ruby-2.3.1.tar.gz

# 2.解壓縮ruby源碼
tar -xvf ruby-2.3.1.tar.gz

# 3.進入ruby源碼包,配置安裝位置
./configure --prefix=/opt/ruby/

# 4.開始編譯且編譯安裝
make && make install

# 5.配置ruby的環境變量
vim /etc/profile 
# 寫入如下配置
PATH=$PATH:/opt/ruby/bin 
      

4,安裝ruby操作redis的模塊

# 1.下載ruby操作redis的模塊
wget http://rubygems.org/downloads/redis-3.3.0.gem

# 2.安裝
gem install -l redis-3.3.0.gem

# 3.搜索創建redis集群的命令
find /opt  -name  redis-trib.rb
/opt/redis-4.0.10/src/redis-trib.rb  # 搜索結果

5,一鍵創建redis集群

redis-trib.rb create --replicas 1 127.0.0.1:7000 127.0.0.1:7001 127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005
# replicas 1 --代表每個主節點,有一個從節點

# 集群自動分配主從關系,默認:
# 7000,7001,7001 為主庫
#  7003,7004,7005 為從庫

6,查看集群狀態

redis-cli -p 7000 cluster info  

redis-cli -p 7000 cluster nodes  #等同於查看nodes-7000.conf文件節點信息

# 集群主節點狀態
redis-cli -p 7000 cluster nodes | grep master
# 集群從節點狀態
redis-cli -p 7000 cluster nodes | grep slave

6,開啟集群

redis-cli -p 7000  -c  
    # -p  指定數據庫端口
    # -c  指定開啟集群模式

7,測試寫入集群數據

127.0.0.1:7000> set name peng     
-> Redirected to slot [5798] located at 127.0.0.1:7001       
OK
127.0.0.1:7001> exit
[root@yugo /opt/redis/src 18:46:07]#redis-cli -c -p 7000
127.0.0.1:7000> ping
PONG
127.0.0.1:7000> keys *
(empty list or set)
127.0.0.1:7000> get name
-> Redirected to slot [5798] located at 127.0.0.1:7001
"peng"

集群已經搭建完畢啦!!!

redis - Sentinel 和 cluster