1. 程式人生 > >詳解 Redis 應用場景及應用例項

詳解 Redis 應用場景及應用例項

Redis是一個開源的使用ANSI C語言編寫、支援網路、可基於記憶體亦可持久化的日誌型、Key-Value資料庫,並提供多種語言的API。從2010年3月15日起,Redis的開發工作由VMware主持。

1. MySql+Memcached架構的問題

實際MySQL是適合進行海量資料儲存的,通過Memcached將熱點資料載入到cache,加速訪問,很多公司都曾經使用過這樣的架構,但隨著業務資料量的不斷增加,和訪問量的持續增長,我們遇到了很多問題:

1.MySQL需要不斷進行拆庫拆表,Memcached也需不斷跟著擴容,擴容和維護工作佔據大量開發時間。

2.Memcached與MySQL

資料庫資料一致性問題。

3.Memcached資料命中率低或down機,大量訪問直接穿透到DB,MySQL無法支撐。

4.跨機房cache同步問題。

眾多NoSQL百花齊放,如何選擇

業界不斷湧現出很多各種各樣的NoSQL產品,那麼如何才能正確地使用好這些產品,最大化地發揮其長處,是我們需要深入研究和思考的問題,實際歸根結底最重要的是瞭解這些產品的定位,並且瞭解到每款產品的取捨,在實際應用中做到揚長避短,總體上這些NoSQL主要用於解決以下幾種問題

1.少量資料儲存,高速讀寫訪問。此類產品通過資料全部in-momery 的方式來保證高速訪問,同時提供資料落地的功能,實際這正是Redis最主要的適用場景。

2.海量資料儲存,分散式系統支援,資料一致性保證,方便的叢集節點新增/刪除。

面對不同型別的NoSQL產品,我們需要根據我們的業務場景選擇最合適的產品。

 

Redis最適合所有資料in-momory的場景,Redis也提供持久化功能,那麼可能大家就會有疑問,似乎Redis更像一個加強版的Memcached,那麼何時使用Memcached,何時使用 Redis呢?

如果簡單地比較Redis與Memcached的區別,大多數都會得到以下觀點:

1 、Redis不僅僅支援簡單的k/v型別的資料,同時還提供list,set,zset,hash等資料結構的儲存。

2 、Redis支援資料的備份,即master-slave模式的資料備份。

3 、Redis支援資料的持久化,可以將記憶體中的資料保持在磁碟中,重啟的時候可以再次載入進行使用。

2. Redis常用資料型別

Redis最為常用的資料型別主要有以下:

String

Hash

List

Set

Sorted set

 

pub/sub

Transactions

在具體描述這幾種資料型別之前,我們先通過一張圖瞭解下Redis內部記憶體管理中是如何描述這些不同資料型別的:

 

 

 

首先Redis內部使用一個redisObject物件來表示所有的key和value,redisObject最主要的資訊如上圖所示:

type代表一個value物件具體是何種資料型別,

encoding是不同資料型別在redis內部的儲存方式,

encoding編碼格式詳解:https://yq.aliyun.com/articles/63461

比如:type=string代表value儲存的是一個普通字串,那麼對應的encoding可以是raw或者是int,如果是int則代表實際 redis內部是按數值型類儲存和表示這個字串的,當然前提是這個字串本身可以用數值表示,比如:”123″ “456″這樣的字串。

通過上圖我們可以發現Redis使用redisObject來表示所有的key/value資料是比較浪費記憶體的,當然這些記憶體管理成本的付出主要也是為了給 Redis不同資料型別提供一個統一的管理介面,實際作者也提供了多種方法幫助我們儘量節省記憶體使用,我們隨後會具體討論。

3. 各種資料型別應用和實現方式

下面我們先來逐一的分析下這5種資料型別的使用和內部實現方式:

String:

Strings 資料結構是簡單的key-value型別,value其實不僅是String,也可以是數字.

常用命令: set,get,decr,incr,mget 等。

應用場景:String是最常用的一種資料型別,普通的key/ value 儲存都可以歸為此類.即可以完全實現目前 Memcached 的功能,並且效率更高。還可以享受Redis的定時持久化,操作日誌及 Replication等功能。除了提供與 Memcached 一樣的get、set、incr、decr 等操作外,Redis還提供了下面一些操作:

獲取字串長度

往字串append內容

設定和獲取字串的某一段內容

設定及獲取字串的某一位(bit)

批量設定一系列字串的內容

實現方式:String在redis內部儲存預設就是一個字串,被redisObject所引用,當遇到incr,decr等操作時會轉成數值型進行計算,此時redisObject的encoding欄位為int。

Hash

常用命令:hget,hset,hgetall 等。

應用場景:在Memcached中,我們經常將一些結構化的資訊打包成HashMap,在客戶端序列化後儲存為一個字串的值,比如使用者的暱稱、年齡、性別、積分等,這時候在需要修改其中某一項時,通常需要將所有值取出反序列化後,修改某一項的值,再序列化儲存回去。這樣不僅增大了開銷,也不適用於一些可能併發操作的場合(比如兩個併發的操作都需要修改積分)。而Redis的Hash結構可以使你像在資料庫中Update一個屬性一樣只修改某一項屬性值。

我們簡單舉個例項來描述下Hash的應用場景,比如我們要儲存一個使用者資訊物件資料,包含以下資訊:

使用者ID為查詢的key,儲存的value使用者物件包含姓名,年齡,生日等資訊,如果用普通的key/value結構來儲存,主要有以下2種儲存方式:

 

 

 

第一種方式將使用者ID作為查詢key,把其他資訊封裝成一個物件以序列化的方式儲存,這種方式的缺點是,增加了序列化/反序列化的開銷,並且在需要修改其中一項資訊時,需要把整個物件取回,並且修改操作需要對併發進行保護,引入CAS等複雜問題。

 

 

 

第二種方法是這個使用者資訊物件有多少成員就存成多少個key-value對兒,用使用者ID+對應屬性的名稱作為唯一標識來取得對應屬性的值,雖然省去了序列化開銷和併發問題,但是使用者ID為重複儲存,如果存在大量這樣的資料,記憶體浪費還是非常可觀的。

那麼Redis提供的Hash很好的解決了這個問題,Redis的Hash實際是內部儲存的Value為一個HashMap,並提供了直接存取這個Map成員的介面,如下圖:

 

 

 

也就是說,Key仍然是使用者ID, value是一個Map,這個Map的key是成員的屬性名,value是屬性值,這樣對資料的修改和存取都可以直接通過其內部Map的 Key(Redis裡稱內部Map的key為field), 也就是通過 key(使用者ID) + field(屬性標籤) 就可以操作對應屬性資料了,既不需要重複儲存資料,也不會帶來序列化和併發修改控制的問題。很好的解決了問題。

這裡同時需要注意,Redis提供了介面(hgetall)可以直接取到全部的屬性資料,但是如果內部Map的成員很多,那麼涉及到遍歷整個內部 Map的操作,由於Redis單執行緒模型的緣故,這個遍歷操作可能會比較耗時,而另其它客戶端的請求完全不響應,這點需要格外注意。

實現方式:

上面已經說到Redis Hash對應Value內部實際就是一個HashMap,實際這裡會有2種不同實現,這個Hash的成員比較少時Redis為了節省記憶體會採用類似一維陣列的方式來緊湊儲存,而不會採用真正的HashMap結構,對應的value redisObject的encoding為zipmap,當成員數量增大時會自動轉成真正的HashMap,此時encoding為ht。

List

常用命令:lpush,rpush,lpop,rpop,lrange等。

應用場景:

Redis list的應用場景非常多,也是Redis最重要的資料結構之一,比如twitter的關注列表,粉絲列表等都可以用Redis的list結構來實現。

Lists 就是連結串列,相信略有資料結構知識的人都應該能理解其結構。使用Lists結構,我們可以輕鬆地實現最新訊息排行等功能。Lists的另一個應用就是訊息佇列,

可以利用Lists的PUSH操作,將任務存在Lists中,然後工作執行緒再用POP操作將任務取出進行執行。Redis還提供了操作Lists中某一段的api,你可以直接查詢,刪除Lists中某一段的元素。

實現方式:

Redis list的實現為一個雙向連結串列,即可以支援反向查詢和遍歷,更方便操作,不過帶來了部分額外的記憶體開銷,Redis內部的很多實現,包括髮送緩衝佇列等也都是用的這個資料結構。

Set

常用命令:

sadd,spop,smembers,sunion 等。

應用場景:

Redis set對外提供的功能與list類似是一個列表的功能,特殊之處在於set是可以自動排重的,當你需要儲存一個列表資料,又不希望出現重複資料時,set 是一個很好的選擇,並且set提供了判斷某個成員是否在一個set集合內的重要介面,這個也是list所不能提供的。

Sets 集合的概念就是一堆不重複值的組合。利用Redis提供的Sets資料結構,可以儲存一些集合性的資料,比如在微博應用中,可以將一個使用者所有的關注人存在一個集合中,將其所有粉絲存在一個集合。Redis還為集合提供了求交集、並集、差集等操作,可以非常方便的實現如共同關注、共同喜好、二度好友等功能,對上面的所有集合操作,你還可以使用不同的命令選擇將結果返回給客戶端還是存集到一個新的集合中。

實現方式:

set 的內部實現是一個 value永遠為null的HashMap,實際就是通過計算hash的方式來快速排重的,這也是set能提供判斷一個成員是否在集合內的原因。

Sorted Set

常用命令:

zadd,zrange,zrem,zcard等

使用場景:

Redis sorted set的使用場景與set類似,區別是set不是自動有序的,而sorted set可以通過使用者額外提供一個優先順序(score)的引數來為成員排序,並且是插入有序的,即自動排序。當你需要一個有序的並且不重複的集合列表,那麼可以選擇sorted set資料結構,比如twitter 的public timeline可以以發表時間作為score來儲存,這樣獲取時就是自動按時間排好序的。

另外還可以用Sorted Sets來做帶權重的佇列,比如普通訊息的score為1,重要訊息的score為2,然後工作執行緒可以選擇按score的倒序來獲取工作任務。讓重要的任務優先執行。

實現方式:

Redis sorted set的內部使用HashMap和跳躍表(SkipList)來保證資料的儲存和有序,HashMap裡放的是成員到score的對映,而跳躍表裡存放的是所有的成員,排序依據是HashMap裡存的score,使用跳躍表的結構可以獲得比較高的查詢效率,並且在實現上比較簡單。

 

 

 

Pub/Sub

Pub/Sub 從字面上理解就是釋出(Publish)與訂閱(Subscribe),在Redis中,你可以設定對某一個key值進行訊息釋出及訊息訂閱,當一個 key值上進行了訊息釋出後,所有訂閱它的客戶端都會收到相應的訊息。這一功能最明顯的用法就是用作實時訊息系統,比如普通的即時聊天,群聊等功能。

Transactions

誰說NoSQL都不支援事務,雖然Redis的Transactions提供的並不是嚴格的ACID的事務(比如一串用EXEC提交執行的命令,在執行中伺服器宕機,那麼會有一部分命令執行了,剩下的沒執行),但是這個Transactions還是提供了基本的命令打包執行的功能(在伺服器不出問題的情況下,可以保證一連串的命令是順序在一起執行的,中間有會有其它客戶端命令插進來執行)。Redis還提供了一個Watch功能,你可以對一個key進行 Watch,然後再執行Transactions,在這過程中,如果這個Watched的值進行了修改,那麼這個Transactions會發現並拒絕執行。

4. Redis實際應用場景

Redis在很多方面與其他資料庫解決方案不同:它使用記憶體提供主儲存支援,而僅使用硬碟做永續性的儲存;它的資料模型非常獨特,用的是單執行緒。另一個大區別在於,你可以在開發環境中使用Redis的功能,但卻不需要轉到Redis。

轉向Redis當然也是可取的,許多開發者從一開始就把Redis作為首選資料庫;但設想如果你的開發環境已經搭建好,應用已經在上面運行了,那麼更換資料庫框架顯然不那麼容易。另外在一些需要大容量資料集的應用,Redis也並不適合,因為它的資料集不會超過系統可用的記憶體。所以如果你有大資料應用,而且主要是讀取訪問模式,那麼Redis並不是正確的選擇。

然而我喜歡Redis的一點就是你可以把它融入到你的系統中來,這就能夠解決很多問題,比如那些你現有的資料庫處理起來感到緩慢的任務。這些你就可以通過 Redis來進行優化,或者為應用建立些新的功能。在本文中,我就想探討一些怎樣將Redis加入到現有的環境中,並利用它的原語命令等功能來解決 傳統環境中碰到的一些常見問題。在這些例子中,Redis都不是作為首選資料庫。

1、顯示最新的專案列表

下面這個語句常用來顯示最新專案,隨著資料多了,查詢毫無疑問會越來越慢。

SELECT * FROM foo WHERE … ORDER BY time DESC LIMIT 10

在Web應用中,“列出最新的回覆”之類的查詢非常普遍,這通常會帶來可擴充套件性問題。這令人沮喪,因為專案本來就是按這個順序被建立的,但要輸出這個順序卻不得不進行排序操作。

類似的問題就可以用Redis來解決。比如說,我們的一個Web應用想要列出使用者貼出的最新20條評論。在最新的評論邊上我們有一個“顯示全部”的連結,點選後就可以獲得更多的評論。

我們假設資料庫中的每條評論都有一個唯一的遞增的ID欄位。

我們可以使用分頁來製作主頁和評論頁,使用Redis的模板,每次新評論發表時,我們會將它的ID新增到一個Redis列表:

LPUSH latest.comments

我們將列表裁剪為指定長度,因此Redis只需要儲存最新的5000條評論:

LTRIM latest.comments 0 5000

每次我們需要獲取最新評論的專案範圍時,我們呼叫一個函式來完成(使用虛擬碼):

FUNCTION get_latest_comments(start, num_items):
id_list = redis.lrange(“latest.comments”,start,start+num_items – 1)
IF id_list.length < num_items
id_list = SQL_DB(“SELECT … ORDER BY time LIMIT …”)
END
RETURN id_list
END

這裡我們做的很簡單。在Redis中我們的最新ID使用了常駐快取,這是一直更新的。但是我們做了限制不能超過5000個ID,因此我們的獲取ID函式會一直詢問Redis。只有在start/count引數超出了這個範圍的時候,才需要去訪問資料庫。

我們的系統不會像傳統方式那樣“重新整理”快取,Redis例項中的資訊永遠是一致的。SQL資料庫(或是硬碟上的其他型別資料庫)只是在使用者需要獲取“很遠”的資料時才會被觸發,而主頁或第一個評論頁是不會麻煩到硬碟上的資料庫了。

2、刪除與過濾

我們可以使用LREM來刪除評論。如果刪除操作非常少,另一個選擇是直接跳過評論條目的入口,報告說該評論已經不存在。

有些時候你想要給不同的列表附加上不同的過濾器。如果過濾器的數量受到限制,你可以簡單的為每個不同的過濾器使用不同的Redis列表。畢竟每個列表只有5000條專案,但Redis卻能夠使用非常少的記憶體來處理幾百萬條專案。

3、排行榜相關

另一個很普遍的需求是各種資料庫的資料並非儲存在記憶體中,因此在按得分排序以及實時更新這些幾乎每秒鐘都需要更新的功能上資料庫的效能不夠理想。

典型的比如那些線上遊戲的排行榜,比如一個Facebook的遊戲,根據得分你通常想要:

– 列出前100名高分選手

– 列出某使用者當前的全球排名

這些操作對於Redis來說小菜一碟,即使你有幾百萬個使用者,每分鐘都會有幾百萬個新的得分。

模式是這樣的,每次獲得新得分時,我們用這樣的程式碼:

ZADD leaderboard

你可能用userID來取代username,這取決於你是怎麼設計的。

得到前100名高分使用者很簡單:ZREVRANGE leaderboard 0 99。

使用者的全球排名也相似,只需要:Zrevrank  leaderboard 。

4、按照使用者投票和時間排序

排行榜的一種常見變體模式就像Reddit或Hacker News用的那樣

開始時先觀察那些可能是最新的專案,例如首頁上的1000條新聞都是候選者,因此我們先忽視掉其他的,這實現起來很簡單。

每次新的新聞貼上來後,我們將ID新增到列表中,使用LPUSH + LTRIM,確保只取出最新的1000條專案。

有一項後臺任務獲取這個列表,並且持續的計算這1000條新聞中每條新聞的最終得分。計算結果由ZADD命令按照新的順序填充生成列表,老新聞則被清除。這裡的關鍵思路是排序工作是由後臺任務來完成的。

5、處理過期專案

另一種常用的專案排序是按照時間排序。我們使用unix時間作為得分即可。

模式如下:

– 每次有新專案新增到我們的非Redis資料庫時,我們把它加入到排序集合中。這時我們用的是時間屬性,current_time和time_to_live。

– 另一項後臺任務使用ZRANGE…SCORES查詢排序集合,取出最新的10個專案。如果發現unix時間已經過期,則在資料庫中刪除條目。

6、計數

Redis是一個很好的計數器,這要感謝INCRBY和其他相似命令。

我相信你曾許多次想要給資料庫加上新的計數器,用來獲取統計或顯示新資訊,但是最後卻由於寫入敏感而不得不放棄它們。

好了,現在使用Redis就不需要再擔心了。有了原子遞增(atomic increment),你可以放心的加上各種計數,用GET SET重置,或者是讓它們過期。

你可以計算出最近使用者在頁面間停頓不超過60秒的頁面瀏覽量,當計數達到比如20時,就可以顯示出某些條幅提示,或是其它你想顯示的東西。

7、特定時間內的特定專案

另一項對於其他資料庫很難,但Redis做起來卻輕而易舉的事就是統計在某段特點時間裡有多少特定使用者訪問了某個特定資源。比如我想要知道某些特定的註冊使用者或IP地址,他們到底有多少訪問了某篇文章。

每次我獲得一次新的頁面瀏覽時我只需要這樣做:

SADD page:day1:

當然你可能想用unix時間替換day1,比如time()-(time()%3600*24)等等。

想知道特定使用者的數量嗎?只需要使用SCARD page:day1: 。

需要測試某個特定使用者是否訪問了這個頁面?SISMEMBER page:day1: 。

8、實時分析正在發生的情況,用於資料統計與防止垃圾郵件等

我們只做了幾個例子,但如果你研究Redis的命令集,並且組合一下,就能獲得大量的實時分析方法,有效而且非常省力。使用Redis原語命令,更容易實施垃圾郵件過濾系統或其他實時跟蹤系統。

9、Pub/Sub

Redis的Pub/Sub非常非常簡單,執行穩定並且快速。支援模式匹配,能夠實時訂閱與取消頻道。

10、佇列

你應該已經注意到像list push和list pop這樣的Redis命令能夠很方便的執行佇列操作了,但能做的可不止這些:比如Redis還有list pop的變體命令,能夠在列表為空時阻塞佇列。

現代的網際網路應用大量地使用了訊息佇列(Messaging)。訊息佇列不僅被用於系統內部元件之間的通訊,同時也被用於系統跟其它服務之間的互動。訊息佇列的使用可以增加系統的可擴充套件性、靈活性和使用者體驗。非基於訊息佇列的系統,其執行速度取決於系統中最慢的元件的速度(注:短板效應)。而基於訊息佇列可以將系統中各元件解除耦合,這樣系統就不再受最慢元件的束縛,各元件可以非同步執行從而得以更快的速度完成各自的工作。

此外,當伺服器處在高併發操作的時候,比如頻繁地寫入日誌檔案。可以利用訊息佇列實現非同步處理。從而實現高效能的併發操作。

11、快取

Redis的快取部分值得寫一篇新文章,我這裡只是簡單的說一下。Redis能夠替代memcached,讓你的快取從只能儲存資料變得能夠更新資料,因此你不再需要每次都重新生成資料了。

此部分內容的原文地址:http://antirez.com/post/take-advantage-of-redis-adding-it-to-your-stack.html

5. 國內外三個不同領域巨頭分享的Redis實戰經驗及使用場景

隨著應用對高效能需求的增加,NoSQL逐漸在各大名企的系統架構中生根發芽。這裡我們將為大家分享社交巨頭新浪微博、傳媒巨頭Viacom及圖片分享領域佼佼者Pinterest帶來的Redis實踐,首先我們看新浪微博 @啟盼cobain的Redis實戰經驗分享:

一、新浪微博:史上最大的Redis叢集

Tape is Dead,Disk is Tape,Flash is Disk,RAM Locality is King. — Jim Gray

Redis不是比較成熟的memcache或者Mysql的替代品,是對於大型網際網路類應用在架構上很好的補充。現在有越來越多的應用也在紛紛基於Redis做架構的改造。首先簡單公佈一下Redis平臺實際情況:

2200+億 commands/day 5000億Read/day 500億Write/day

18TB+ Memory

500+ Servers in 6 IDC 2000+instances

應該是國內外比較大的Redis使用平臺,今天主要從應用角度談談Redis服務平臺。

Redis使用場景

1.Counting(計數)

計數的應用在另外一篇文章裡較詳細的描述,計數場景的優化 http://www.xdata.me/?p=262這裡就不多加描述了。

可以預見的是,有很多同學認為把計數全部存在記憶體中成本非常高,我在這裡用個圖表來表達下我的觀點:

 

 

 

很多情況大家都會設想純使用記憶體的方案會很有很高成本,但實際情況往往會有一些不一樣:

COST,對於有一定吞吐需求的應用來說,肯定會單獨申請DB、Cache資源,很多擔心DB寫入效能的同學還會主動將DB更新記入非同步佇列,而這三塊的資源的利用率一般都不會太高。資源算下來,你驚異的發現:反而純記憶體的方案會更精簡!

KISS原則,這對於開發是非常友好的,我只需要建立一套連線池,不用擔心資料一致性的維護,不用維護非同步佇列。

Cache穿透風險,如果後端使用DB,肯定不會提供很高的吞吐能力,cache宕機如果沒有妥善處理,那就悲劇了。

大多數的起始儲存需求,容量較小。

2.Reverse cache(反向cache)

面對微博常常出現的熱點,如最近出現了較為火爆的短鏈,短時間有數以萬計的人點選、跳轉,而這裡會常常湧現一些需求,比如我們向快速在跳轉時判定使用者等級,是否有一些賬號繫結,性別愛好什麼的,已給其展示不同的內容或者資訊。

普通採用memcache+Mysql的解決方案,當呼叫id合法的情況下,可支撐較大的吞吐。但當呼叫id不可控,有較多垃圾使用者呼叫時,由於memcache未有命中,會大量的穿透至Mysql伺服器,瞬間造成連線數瘋長,整體吞吐量降低,響應時間變慢。

這裡我們可以用redis記錄全量的使用者判定資訊,如string key:uid int:type,做一次反向的cache,當用戶在redis快速獲取自己等級等資訊後,再去Mc+Mysql層去獲取全量資訊。如圖:

 

 

 

當然這也不是最優化的場景,如用Redis做bloomfilter,可能更加省用記憶體。

3.Top 10 list

產品運營總會讓你展示最近、最熱、點選率最高、活躍度最高等等條件的top list。很多更新較頻繁的列表如果使用MC+MySQL維護的話快取失效的可能性會比較大,鑑於佔用記憶體較小的情況,使用Redis做儲存也是相當不錯的。

4.Last Index

使用者最近訪問記錄也是redis list的很好應用場景,lpush lpop自動過期老的登陸記錄,對於開發來說還是非常友好的。

5.Relation List/Message Queue

這裡把兩個功能放在最後,因為這兩個功能在現實問題當中遇到了一些困難,但在一定階段也確實解決了我們很多的問題,故在這裡只做說明。

Message Queue就是通過list的lpop及lpush介面進行佇列的寫入和消費,由於本身效能較好也能解決大部分問題。

6.Fast transaction with Lua

Redis 的Lua的功能擴充套件實際給Redis帶來了更多的應用場景,你可以編寫若干command組合作為一個小型的非阻塞事務或者更新邏輯,如:在收到 message推送時,同時1.給自己的增加一個未讀的對話 2.給自己的私信增加一個未讀訊息 3.最後給傳送人回執一個完成推送訊息,這一層邏輯完全可以在Redis Server端實現。

但是,需要注意的是Redis會將lua script的全部內容記錄在aof和傳送給slave,這也將是對磁碟,網絡卡一個不小的開銷。

7.Instead of Memcache

很多測試和應用均已證明,

在效能方面Redis並沒有落後memcache多少,而單執行緒的模型給Redis反而帶來了很強的擴充套件性。

在很多場景下,Redis對同一份資料的記憶體開銷是小於memcache的slab分配的。

Redis提供的資料同步功能,其實是對cache的一個強有力功能擴充套件。

Redis使用的重要點

1.rdb/aof Backup!

我們線上的Redis 95%以上是承擔後端儲存功能的,我們不僅用作cache,而更為一種k-v儲存,他完全替代了後端的儲存服務(MySQL),故其資料是非常重要的,如果出現數據汙染和丟失,誤操作等情況,將是難以恢復的。所以備份是非常必要的!為此,我們有共享的hdfs資源作為我們的備份池,希望能隨時可以還原業務所需資料。

2.Small item & Small instance!

由於Redis單執行緒(嚴格意義上不是單執行緒,但認為對request的處理是單執行緒的)的模型,大的資料結構list,sorted set,hash set的批量處理就意味著其他請求的等待,故使用Redis的複雜資料結構一定要控制其單key-struct的大小。

另外,Redis單例項的記憶體容量也應該有嚴格的限制。單例項記憶體容量較大後,直接帶來的問題就是故障恢復或者Rebuild從庫的時候時間較長,而更糟糕的是,Redis rewrite aof和save rdb時,將會帶來非常大且長的系統壓力,並佔用額外記憶體,很可能導致系統記憶體不足等嚴重影響效能的線上故障。我們線上96G/128G記憶體伺服器不建議單例項容量大於20/30G。

3.Been Available!

業界資料和使用比較多的是Redis sentinel(哨兵)

http://www.huangz.me/en/latest/storage/redis_code_analysis/sentinel.html

http://qiita.com/wellflat/items/8935016fdee25d4866d9

2000行C實現了伺服器狀態檢測,自動故障轉移等功能。

但由於自身實際架構往往會複雜,或者考慮的角度比較多,為此 @許琦eryk和我一同做了hypnos專案。

hypnos是神話中的睡神,字面意思也是希望我們工程師無需在休息時間處理任何故障。:-)

其工作原理示意如下:

 

 

 

Talk is cheap, show me your code! 稍後將單獨寫篇部落格細緻講下Hypnos的實現。

4.In Memory or not?

發現一種情況,開發在溝通後端資源設計的時候,常常因為習慣使用和錯誤瞭解產品定位等原因,而忽視了對真實使用使用者的評估。也許這是一份歷史資料,只有最近一天的資料才有人進行訪問,而把歷史資料的容量和最近一天請求量都拋給記憶體類的儲存現實是非常不合理的。

所以當你在究竟使用什麼樣的資料結構儲存的時候,請務必先進行成本衡量,有多少資料是需要儲存在記憶體中的?有多少資料是對使用者真正有意義的。因為這其實對後端資源的設計是至關重要的,1G的資料容量和1T的資料容量對於設計思路是完全不一樣的

Plans in future?

1.slave sync改造

全部改造線上master-slave資料同步機制,這一點我們借鑑了MySQL Replication的思路,使用rdb+aof+pos作為資料同步的依據,這裡簡要說明為什麼官方提供的psync沒有很好的滿足我們的需求:

假設A有兩個從庫B及C,及 A `— B&C,這時我們發現master A伺服器有宕機隱患需要重啟或者A節點直接宕機,需要切換B為新的主庫,如果A、B、C不共享rdb及aof資訊,C在作為B的從庫時,仍會清除自身資料,因為C節點只記錄了和A節點的同步狀況。

故我們需要有一種將A`–B&C 結構切換切換為A`–B`–C結構的同步機制,psync雖然支援斷點續傳,但仍無法支援master故障的平滑切換。

實際上我們已經在我們定製的Redis計數服務上使用瞭如上功能的同步,效果非常好,解決了運維負擔,但仍需向所有Redis服務推廣,如果可能我們也會向官方Redis提出相關sync slave的改進。

2.更適合redis的name-system Or proxy

細心的同學發現我們除了使用DNS作為命名系統,也在zookeeper中有一份記錄,為什麼不讓使用者直接訪問一個系統,zk或者DNS選擇其一呢?

其實還是很簡單,命名系統是個非常重要的元件,而dns是一套比較完善的命名系統,我們為此做了很多改進和試錯,zk的實現還是相對複雜,我們還沒有較強的把控粒度。我們也在思考用什麼做命名系統更符合我們需求。

3.後端資料儲存

大記憶體的使用肯定是一個重要的成本優化方向,flash盤及分散式的儲存也在我們未來計劃之中。(原文連結: Largest Redis Clusters Ever)

二、Pinterest:Reids維護上百億的相關性

Pinterest已經成為矽谷最瘋故事之一,在2012年,他們基於PC的業務增加1047%,移動端採用增加1698%, 該年3月其獨立訪問數量更飆升至533億。在Pinterest,人們關注的事物以百億記——每個使用者介面都會查詢某個board或者是使用者是否關注的行為促成了異常複雜的工程問題。這也讓Redis獲得了用武之地。經過數年的發展,Pinterest已經成為媒體、社交等多個領域的佼佼者,其輝煌戰績如下:

獲得的推薦流量高於Google+、YouTube及LinkedIn三者的總和

與Facebook及Twitter一起成為最流行的三大社交網路

參考Pinterest進行購買的使用者比其它網站更高( 更多詳情)

如您所想,基於其獨立訪問數,Pinterest的高規模促成了一個非常高的IT基礎設施需求。

 

 

 

通過快取來優化使用者體驗

近日,Pinterest工程經理Abhi Khune對其公司的使用者體驗需求及Redis的使用經驗 進行了分享。即使是滋生的應用程式打造者,在分析網站的細節之前也不會理解這些特性,因此先大致的理解一下使用場景:首先,為每個粉絲進行提及到的預檢查;其次,UI將準確的顯示使用者的粉絲及關注列表分頁。高效的執行這些操作,每次點選都需要非常高的效能架構。

不能免俗,Pinterest的軟體工程師及架構師已經使用了MySQL及memcache,但是快取解決方案仍然達到了他們的瓶頸;因此為了擁有更好的使用者體驗,快取必須被擴充。而在實際操作過程中,工程團隊已然發現快取只有當用戶sub-graph已經在快取中時才會起到作用。因此。任何使用這個系統的人都需要被快取,這就導致了整個圖的快取。同時,最常見的查詢“使用者A是否關注了使用者B”的答案經常是否定的,然而這卻被作為了快取丟失,從而促成一個數據庫查詢,因此他們需要一個新的方法來擴充套件快取。最終,他們團隊決定使用Redis來儲存整個圖,用以服務眾多的列表。

使用Redis儲存大量的Pinterest列表

Pinterest使用了Redis作為解決方案,並將效能推至了記憶體資料庫等級,為使用者儲存多種型別列表:

關注者列表

你所關注的board列表

粉絲列表

關注你board的使用者列表

某個使用者中board中你沒有關注的列表

每個board的關注者及非關注者

Redis 為其7000萬用戶儲存了以上的所有列表,本質上講可以說是儲存了所有粉絲圖,通過使用者ID分片。鑑於你可以通過型別來檢視以上列表的資料,分析概要資訊被用看起來更像事務的系統儲存及訪問。Pinterest當下的使用者like被限制為10萬,初略進行統計:如果每個使用者關注25個board,將會在使用者及board間產生17.5億的關係。同時更加重要的是,這些關係隨著系統的使用每天都會增加。

Pinterest的Reids架構及運營

通過Pinterest的一個創始人瞭解到,Pinterest開始使用Python及訂製的Django編寫應用程式,並一直持續到其擁有1800萬用戶級日410TB使用者資料的時候。雖然使用了多個儲存對資料進行儲存,工程師根據使用者id使用了8192個虛擬分片,每個分片都執行在一個Redis DB之上,同時1個Redis例項將執行多個Redis DB。為了對CPU核心的充分使用,同一臺主機上同時使用多執行緒和單執行緒Redis例項。

鑑於整個資料集執行在記憶體當中,Redis在Amazon EBS上對每秒傳輸進來的寫入都會進行持久化。擴充套件主要通過兩個方面進行:第一,保持50%的利用率,通過主從轉換,機器上執行的Redis例項一半會轉譯到一個新機器上;第二,擴充套件節點和分片。整個Redis叢集都會使用一個主從配置,從部分將被當做一個熱備份。一旦主節點失敗,從部分會立刻完成主的轉換,同時一個新的從部分將會被新增,ZooKeeper將完成整個過程。同時他們每個小時都會在Amazon S3上執行BGsave做更持久的儲存——這項Reids操作會在後端進行,之後Pinterest會使用這些資料做MapReduce和分析作業。(更多內容見原文)

 

 

 

三、Viacom:Redis在系統中的用例盤點

Viacom是全球最大的傳媒集體之一,同時也遭遇了當下最大的資料難題之一:如何處理日益劇增的動態視訊內容。

著眼這一挑戰的上升趨勢,我們會發現:2010年世界上所有資料體積達到ZB級,而單單2012這一年,網際網路產生的資料就增加了2.8個ZB,其中大部分的資料都是非結構化的,包括了視訊和圖片。

覆蓋MVN(以前稱為MTV Networks、Paramount及BET),Viacom是個名副其實的傳媒巨頭,支援眾多人氣站點,其中包括The Daily Show、osh.0、South Park Studios、GameTrailers.com等。作為媒體公司,這些網站上的文件、圖片、視訊短片都在無時無刻的更新。長話短說,下面就進入 Viacom高階架構師Michael Venezia 分享的Redis實踐:

Viacom的網站架構背景

對於Viacom,橫跨多個站點傳播內容讓必須專注於規模的需求,同時為了將內容竟可能快的傳播到相應使用者,他們還必須聚焦內容之間的關係。然而即使The Daily Show、Nickelodeon、Spike或者是VH1 這些單獨的網站上,日平均PV都可以達到千萬,峰值時流量更會達到平均值的20-30倍。同時基於對實時的需求,動態的規模及速度已成為架構的基礎之一。

除去動態規模之外,服務還必須基於使用者正在瀏覽的視訊或者是地理位置來推測使用者的喜好。比如說,某個頁面可能會將一個獨立的視訊片段與本地的促銷,視訊系列的額外部分,甚至是相關視訊聯絡起來。為了能讓使用者能在網站上停留更長的時間,他們建立了一個能基於詳細元資料自動建立頁面的軟體引擎,這個引擎可以根據使用者當下興趣推薦額外的內容。鑑於用於興趣的隨時改變,資料的型別非常廣泛——類似graph-like,實際上做的是大量的join。

這樣做有利於減少類似視訊的大體積檔案副本數,比如資料儲存中一個獨立的記錄是Southpark片段“Cartman gets an Anal Probe”,這個片段可能也會出現在德語的網站上。雖然視訊是一樣的,但是英語使用者搜尋的可能就是另一個不同的詞語。元資料的副本轉換成搜尋結果,並指向相同的視訊。因此在美國使用者搜尋真實標題的情況下,德國瀏覽者可能會使用轉譯的標題——德國網站上的“Cartman und die Analsonde”。

這些元資料覆蓋了其它記錄或者是物件,同時還可以根據使用環境來改變內容,通過不同的規則集來限制不同地理位置或者是裝置請求的內容。

Viacom的實現方法

儘管許多機構通過使用ORM及傳統關係型資料庫來解決這個問題,Viacom卻使用了一個迥然不同的方法。

本質上,他們完全承擔不了對資料庫的直接訪問。首先,他們處理的大部分都是流資料,他們偏向於使用Akamai從地理上來分配內容。其次,基於頁面的複雜性可能會取上萬個物件。取如此多的資料顯然會影響到效能,因此JSON在1個數據服務中投入了使用。當然,這些JSON物件的快取將直接影響到網站效能。同時,當內容或者是內容之間的關係發生改變時,快取還需要動態的進行更新。

Viacom 依靠物件基元和超類解決這個問題,繼續以South Park為例:一個私有的“episode”類包含了所有該片段相關資訊,一個“super object”將有助於發現實際的視訊物件。超類這個思想確實非常有益於建設低延遲頁面的自動建設,這些超類可以幫助到基元物件到快取的對映及儲存。

Viacom為什麼要使用Redis

每當Viacom上傳一個視訊片段,系統將建立一個私有的物件,並於1個超類關聯。每一次修改,他們都需要重估私有物件的每個改變,並更新所有複合物件。同時,系統還需要無效Akamail中的URL請求。系統現有架構的組合及更敏捷的管理方法需求將Viacom推向了Redis。

基於Viacom主要基於PHP,所以這個解決方案必須支援PHP。他們首先選擇了memcached做物件儲存,但是它並不能很好的支援hashmap;同時他們還需要一個更有效的進行無效步驟的重估,即更好的理解內容的依賴性。本質上說,他們需要時刻跟進無效步驟中的依賴性改變。因此他們選擇了 Redis及Predis的組合來解決這個問題。

他們團隊使用Redis給southparkstudios.com和thedailyshow.com兩個網站建設依賴性圖,在取得了很大的成功後他們開始著眼Redis其它適合場景。

Redis的其它使用場景

顯而易見,如果有人使用Redis來建設依賴性圖,那麼使用它來做物件處理也是說得通的。同樣,這也成了架構團隊為Redis選擇的第二使用場景。 Redis的複製及持久化特性同時也征服了Viacom的運營團隊,因此在幾個開發週期後,Redis成為他們網站的主要資料及依賴性儲存。

後兩個用例則是行為追蹤及瀏覽計數的緩衝,改變後的架構是Redis每幾分鐘向MySQL中儲存一次,而瀏覽計數則通過Redis進行儲存及計數。同時 Redis還被用來做人氣的計算,一個基於訪問數及訪問時間的得分系統——如果某個視訊最近被訪問的次數越多,它的人氣就越高。在如此多內容上每隔 10-15分鐘做一次計算絕對不是類似MySQL這樣傳統關係型資料庫的強項,Viacom使用Redis的理由也非常簡單——在1個儲存瀏覽資訊的 Redis例項上執行Lua批處理作業,計算出所有的得分表。資訊被拷貝到另一個Redis例項上,用以支援相關的產品查詢。同時還在MySQL上做了另一個備份,用以以後的分析,這種組合會將這個過程耗費的時間降低60倍。

Viacom還使用Redis儲存一步作業資訊,這些資訊被插入一個列表中,工作人員則使用BLPOP命令列在佇列中抓取頂端的任務。同時zsets被用於從眾多社交網路(比如Twitter及Tumblr)上綜合內容,Viacom通過Brightcove視訊播放器來同步多個內容管理系統。

橫跨這些用例,幾乎所有的Redis命令都被使用——sets、lists、zlists、hashmaps、scripts、counters等。同時,Redis也成為Viacom可擴充套件架構中不可或缺的一環。