1. 程式人生 > >高併發系統之限流特技

高併發系統之限流特技

在開發高併發系統時有三把利器用來保護系統:快取、降級和限流。快取的目的是提升系統訪問速度和增大系統能處理的容量,可謂是抗高併發流量的銀彈;而降級是當服務出問題或者影響到核心流程的效能則需要暫時遮蔽掉,待高峰或者問題解決後再開啟;而有些場景並不能用快取和降級來解決,比如稀缺資源(秒殺、搶購)、寫服務(如評論、下單)、頻繁的複雜查詢(評論的最後幾頁),因此需有一種手段來限制這些場景的併發/請求量,即限流。

限流的目的是通過對併發訪問/請求進行限速或者一個時間視窗內的的請求進行限速來保護系統,一旦達到限制速率則可以拒絕服務(定向到錯誤頁或告知資源沒有了)、排隊或等待(比如秒殺、評論、下單)、降級(返回兜底資料或預設資料,如商品詳情頁庫存預設有貨)。

一般開發高併發系統常見的限流有:限制總併發數(比如資料庫連線池、執行緒池)、限制瞬時併發數(如nginxlimit_conn模組,用來限制瞬時併發連線數)、限制時間視窗內的平均速率(如GuavaRateLimiternginxlimit_req模組,限制每秒的平均速率);其他還有如限制遠端介面呼叫速率、限制MQ的消費速率。另外還可以根據網路連線數、網路流量、CPU或記憶體負載等來限流。

先有快取這個銀彈,後有限流來應對618、雙十一高併發流量,在處理高併發問題上可以說是如虎添翼,不用擔心瞬間流量導致系統掛掉或雪崩,最終做到有損服務而不是不服務;限流需要評估好,不可亂用,否則會正常流量出現一些奇怪的問題而導致使用者抱怨。

在實際應用時也不要太糾結演算法問題,因為一些限流演算法實現是一樣的只是描述不一樣;具體使用哪種限流技術還是要根據實際場景來選擇,不要一味去找最佳模式,白貓黑貓能解決問題的就是好貓。

因在實際工作中遇到過許多人來問如何進行限流,因此本文會詳細介紹各種限流手段。那麼接下來我們從限流演算法、應用級限流、分散式限流、接入層限流來詳細學習下限流技術手段。

限流演算法

常見的限流演算法有:令牌桶、漏桶。計數器也可以進行粗暴限流實現。


令牌桶演算法

令牌桶演算法是一個存放固定容量令牌的桶,按照固定速率往桶裡新增令牌。令牌桶演算法的描述如下:

  • 假設限制2r/s,則按照500毫秒的固定速率往桶中新增令牌;

  • 桶中最多存放b個令牌,當桶滿時,新新增的令牌被丟棄或拒絕;

  • 當一個n個位元組大小的資料包到達,將從桶中刪除n個令牌,接著資料包被髮送到網路上;

  • 如果桶中的令牌不足n個,則不會刪除令牌,且該資料包將被限流(要麼丟棄,要麼緩衝區等待)。


漏桶演算法

漏桶作為計量工具(The Leaky Bucket Algorithm as a Meter)時,可以用於流量整形(Traffic Shaping)和流量控制(TrafficPolicing),漏桶演算法的描述如下:

  • 一個固定容量的漏桶,按照常量固定速率流出水滴;

  • 如果桶是空的,則不需流出水滴;

  • 可以以任意速率流入水滴到漏桶;

  • 如果流入水滴超出了桶的容量,則流入的水滴溢位了(被丟棄),而漏桶容量是不變的。

令牌桶和漏桶對比:

  • 令牌桶是按照固定速率往桶中新增令牌,請求是否被處理需要看桶中令牌是否足夠,當令牌數減為零時則拒絕新的請求;

  • 漏桶則是按照常量固定速率流出請求,流入請求速率任意,當流入的請求數累積到漏桶容量時,則新流入的請求被拒絕;

  • 令牌桶限制的是平均流入速率(允許突發請求,只要有令牌就可以處理,支援一次拿3個令牌,4個令牌),並允許一定程度突發流量;

  • 漏桶限制的是常量流出速率(即流出速率是一個固定常量值,比如都是1的速率流出,而不能一次是1,下次又是2),從而平滑突發流入速率;

  • 令牌桶允許一定程度的突發,而漏桶主要目的是平滑流入速率;

  • 兩個演算法實現可以一樣,但是方向是相反的,對於相同的引數得到的限流效果是一樣的。

另外有時候我們還使用計數器來進行限流,主要用來限制總併發數,比如資料庫連線池、執行緒池、秒殺的併發數;只要全域性總請求數或者一定時間段的總請求數設定的閥值則進行限流,是簡單粗暴的總數量限流,而不是平均速率限流。

到此基本的演算法就介紹完了,接下來我們首先看看應用級限流。

應用級限流

限流總併發/連線/請求數

對於一個應用系統來說一定會有極限併發/請求數,即總有一個TPS/QPS閥值,如果超了閥值則系統就會不響應使用者請求或響應的非常慢,因此我們最好進行過載保護,防止大量請求湧入擊垮系統。

如果你使用過Tomcat,其Connector其中一種配置有如下幾個引數:

acceptCount:如果Tomcat的執行緒都忙於響應,新來的連線會進入佇列排隊,如果超出排隊大小,則拒絕連線;

maxConnections瞬時最大連線數,超出的會排隊等待;

maxThreadsTomcat能啟動用來處理請求的最大執行緒數,如果請求處理量一直遠遠大於最大執行緒數則可能會僵死。

詳細的配置請參考官方文件。另外如MySQL(如max_connections)、Redis(如tcp-backlog)都會有類似的限制連線數的配置。

限流總資源數

如果有的資源是稀缺資源(如資料庫連線、執行緒),而且可能有多個系統都會去使用它,那麼需要限制應用;可以使用池化技術來限制總資源數:連線池、執行緒池。比如分配給每個應用的資料庫連線是100,那麼本應用最多可以使用100個資源,超出了可以等待或者拋異常。

限流某個介面的總併發/請求數

如果介面可能會有突發訪問情況,但又擔心訪問量太大造成崩潰,如搶購業務;這個時候就需要限制這個介面的總併發/請求數總請求數了;因為粒度比較細,可以為每個介面都設定相應的閥值。可以使用Java中的AtomicLong進行限流:

=================================

try {
if(atomic.incrementAndGet() > 限流數) {
//拒絕請求
}
//處理請求
} finally {
atomic.decrementAndGet();
}

=================================

適合對業務無損的服務或者需要過載保護的服務進行限流,如搶購業務,超出了大小要麼讓使用者排隊,要麼告訴使用者沒貨了,對使用者來說是可以接受的。而一些開放平臺也會限制使用者呼叫某個介面的試用請求量,也可以用這種計數器方式實現。這種方式也是簡單粗暴的限流,沒有平滑處理,需要根據實際情況選擇使用;

限流某個介面的時間窗請求數

即一個時間視窗內的請求數,如想限制某個介面/服務每秒/每分鐘/每天的請求數/呼叫量。如一些基礎服務會被很多其他系統呼叫,比如商品詳情頁服務會呼叫基礎商品服務呼叫,但是怕因為更新量比較大將基礎服務打掛,這時我們要對每秒/每分鐘的呼叫量進行限速;一種實現方式如下所示:

=================================

LoadingCache<Long, AtomicLong> counter =
        CacheBuilder.newBuilder()
                .expireAfterWrite(
2, TimeUnit.SECONDS)
                .build(
new CacheLoader<Long, AtomicLong>() {
                   
@Override
                   
public AtomicLong load(Long seconds) throws Exception {
                       
return new AtomicLong(0);
                    }
                });
long limit = 1000;
while(true) {
   
//得到當前秒
   
long currentSeconds = System.currentTimeMillis() / 1000;
   
if(counter.get(currentSeconds).incrementAndGet() > limit) {
        System.
out.println("限流了:" + currentSeconds);
        
continue;
    }
   
//業務處理
}

=================================

我們使用GuavaCache來儲存計數器,過期時間設定為2秒(保證1秒內的計數器是有的),然後我們獲取當前時間戳然後取秒數來作為KEY進行計數統計和限流,這種方式也是簡單粗暴,剛才說的場景夠用了。

平滑限流某個介面的請求數

之前的限流方式都不能很好地應對突發請求,即瞬間請求可能都被允許從而導致一些問題;因此在一些場景中需要對突發請求進行整形,整形為平均速率請求處理(比如5r/s,則每隔200毫秒處理一個請求,平滑了速率)。這個時候有兩種演算法滿足我們的場景:令牌桶和漏桶演算法。Guava框架提供了令牌桶演算法實現,可直接拿來使用。

Guava RateLimiter提供了令牌桶演算法實現:平滑突發限流(SmoothBursty)和平滑預熱限流(SmoothWarmingUp)實現。

SmoothBursty

=================================

RateLimiter limiter = RateLimiter.create(5);
System.
out.println(limiter.acquire());
System.
out.println(limiter.acquire());
System.
out.println(limiter.acquire());
System.
out.println(limiter.acquire());
System.
out.println(limiter.acquire());
System.
out.println(limiter.acquire());

  將得到類似如下的輸出:

  0.0

  0.198239

  0.196083

  0.200609

  0.199599

  0.19961

=================================

1RateLimiter.create(5)表示桶容量為5且每秒新增5個令牌,即每隔200毫秒新增一個令牌;

2limiter.acquire()表示消費一個令牌,如果當前桶中有足夠令牌則成功(返回值為0),如果桶中沒有令牌則暫停一段時間,比如發令牌間隔是200毫秒,則等待200毫秒後再去消費令牌(如上測試用例返回的為0.198239,差不多等待了200毫秒桶中才有令牌可用),這種實現將突發請求速率平均為了固定請求速率。

再看一個突發示例:

=================================

RateLimiter limiter = RateLimiter.create(5);
System.
out.println(limiter.acquire(5));
System.
out.println(limiter.acquire(1));
System.
out.println(limiter.acquire(1))

將得到類似如下的輸出:

0.0

0.98745

0.183553

0.199909

=================================

limiter.acquire(5)表示桶的容量為5且每秒新增5個令牌,令牌桶演算法允許一定程度的突發,所以可以一次性消費5個令牌,但接下來的limiter.acquire(1)將等待差不多1秒桶中才能有令牌,且接下來的請求也整形為固定速率了。

=================================

RateLimiter limiter = RateLimiter.create(5);
System.
out.println(limiter.acquire(10));
System.
out.println(limiter.acquire(1));
System.
out.println(limiter.acquire(1));

將得到類似如下的輸出:

0.0

1.997428

0.192273

0.200616

=================================

同上邊的例子類似,第一秒突發了10個請求,令牌桶演算法也允許了這種突發(允許消費未來的令牌),但接下來的limiter.acquire(1)將等待差不多2秒桶中才能有令牌,且接下來的請求也整形為固定速率了。


接下來再看一個突發的例子:

=================================

RateLimiter limiter = RateLimiter.create(2);

System.out.println(limiter.acquire());
Thread.sleep(
2000L);
System.
out.println(limiter.acquire());
System.
out.println(limiter.acquire());
System.
out.println(limiter.acquire());
System.
out.println(limiter.acquire());
System.
out.println(limiter.acquire());

將得到類似如下的輸出:

0.0

0.0

0.0

0.0

0.499876

0.495799

=================================

1、建立了一個桶容量為2且每秒新增2個令牌;

2、首先呼叫limiter.acquire()消費一個令牌,此時令牌桶可以滿足(返回值為0);

3、然後執行緒暫停2秒,接下來的兩個limiter.acquire()都能消費到令牌,第三個limiter.acquire()也同樣消費到了令牌,到第四個時就需要等待500毫秒了。

此處可以看到我們設定的桶容量為2(即允許的突發量),這是因為SmoothBursty中有一個引數:最大突發秒數(maxBurstSeconds)預設值是1s,突發量/桶容量=速率*maxBurstSeconds,所以本示例桶容量/突發量為2,例子中前兩個是消費了之前積攢的突發量,而第三個開始就是正常計算的了。令牌桶演算法允許將一段時間內沒有消費的令牌暫存到令牌桶中,留待未來使用,並允許未來請求的這種突發。

SmoothBursty通過平均速率和最後一次新增令牌的時間計算出下次新增令牌的時間的,另外需要一個桶暫存一段時間內沒有使用的令牌(即可以突發的令牌數)。另外RateLimiter還提供了tryAcquire方法來進行無阻塞或可超時的令牌消費。

因為SmoothBursty允許一定程度的突發,會有人擔心如果允許這種突發,假設突然間來了很大的流量,那麼系統很可能扛不住這種突發。因此需要一種平滑速率的限流工具,從而系統冷啟動後慢慢的趨於平均固定速率(即剛開始速率小一些,然後慢慢趨於我們設定的固定速率)。Guava也提供了SmoothWarmingUp來實現這種需求,其可以認為是漏桶演算法,但是在某些特殊場景又不太一樣。

SmoothWarmingUp建立方式:RateLimiter.create(doublepermitsPerSecond, long warmupPeriod, TimeUnit unit)

permitsPerSecond表示每秒新增的令牌數,warmupPeriod表示在從冷啟動速率過渡到平均速率的時間間隔。

示例如下:

=================================

RateLimiter limiter = RateLimiter.create(5,1000, TimeUnit.MILLISECONDS);
for(inti =1; i < 5;i++) {
    System.
out.println(limiter.acquire());
}
Thread.sleep(
1000L);
for(inti =1; i < 5;i++) {
    System.
out.println(limiter.acquire());
}

將得到類似如下的輸出:

0.0

0.51767

0.357814

0.219992

0.199984

0.0

0.360826

0.220166

0.199723

0.199555

=================================

速率是梯形上升速率的,也就是說冷啟動時會以一個比較大的速率慢慢到平均速率;然後趨於平均速率(梯形下降到平均速率)。可以通過調節warmupPeriod引數實現一開始就是平滑固定速率。

到此應用級限流的一些方法就介紹完了。假設將應用部署到多臺機器,應用級限流方式只是單應用內的請求限流,不能進行全侷限流。因此我們需要分散式限流和接入層限流來解決這個問題。

分散式限流

分散式限流最關鍵的是要將限流服務做成原子化,而解決方案可以使使用redis+lua或者nginx+lua技術進行實現,通過這兩種技術可以實現的高併發和高效能。

首先我們來使用redis+lua實現時間窗內某個介面的請求數限流,實現了該功能後可以改造為限流總併發/請求數和限制總資源數。Lua本身就是一種程式語言,也可以使用它實現複雜的令牌桶或漏桶演算法。

redis+lua實現中的lua指令碼:

=================================

local key = KEYS[1] --限流KEY(一秒一個)
local limit = tonumber(ARGV[1])        --限流大小
local current = tonumber(redis.call("INCRBY", key, "1")) --請求數+1
if current > limit then --如果超出限流大小
   return 0
elseif current == 1 then  --只有第一次訪問需要設定2秒的過期時間
   redis.call("expire", key,"2")
end
return 1

=================================

如上操作因是在一個lua指令碼中,又因Redis是單執行緒模型,因此是執行緒安全的。如上方式有一個缺點就是當達到限流大小後還是會遞增的,可以改造成如下方式實現:

=================================

local key = KEYS[1] --限流KEY(一秒一個)
local limit = tonumber(ARGV[1])        --限流大小
local current = tonumber(redis.call('get', key) or "0")
if current + 1 > limit then --如果超出限流大小
   return 0
else  --請求數+1,並設定2秒過期
   redis.call("INCRBY", key,"1")
   redis.call("expire", key,"2")
   return 1
end

=================================

如下是Java中判斷是否需要限流的程式碼:

=================================

public static booleanacquire()throwsException {
    String luaScript = Files.toString(
newFile("limit.lua"), Charset.defaultCharset());
    Jedis jedis =
newJedis("192.168.147.52",6379);
    String key =
"ip:"+ System.currentTimeMillis()/1000;//此處將當前時間戳取秒數
   
Stringlimit ="3";//限流大小
   
return(Long)jedis.eval(luaScript,Lists.newArrayList(key), Lists.newArrayList(limit)) ==1;
}

=================================

因為Redis的限制(Lua中有寫操作不能使用帶隨機性質的讀操作,如TIME)不能在Redis Lua中使用TIME獲取時間戳,因此只好從應用獲取然後傳入,在某些極端情況下(機器時鐘不準的情況下),限流會存在一些小問題。

使用Nginx+Lua實現的Lua指令碼:

=================================

local locks = require "resty.lock"

local function acquire()
    local lock =locks:new("locks")
    local elapsed, err =lock:lock("limit_key") --
互斥鎖
    local limit_counter =ngx.shared.limit_counter --計數器

    local key = "ip:" ..os.time()
    local limit = 5 --限流大小
    local current =limit_counter:get(key)

    if current ~= nil and current + 1> limit then --如果超出限流大小
       lock:unlock()
       return 0
    end
    if current == nil then
       limit_counter:set(key, 1, 1) --第一次需要設定過期時間,設定key的值為1,過期時間為1秒
    else
        limit_counter:incr(key, 1) --第二次開始加1即可
    end
    lock:unlock()
    return 1
end
ngx.print(acquire())

=================================

實現中我們需要使用lua-resty-lock互斥鎖模組來解決原子性問題(在實際工程中使用時請考慮獲取鎖的超時問題),並使用ngx.shared.DICT共享字典來實現計數器。如果需要限流則返回0,否則返回1。使用時需要先定義兩個共享字典(分別用來存放鎖和計數器資料):

=================================

http {

    ……

    lua_shared_dict locks 10m;

    lua_shared_dict limit_counter 10m;

}

=================================

有人會糾結如果應用併發量非常大那麼redis或者nginx是不是能抗得住;不過這個問題要從多方面考慮:你的流量是不是真的有這麼大,是不是可以通過一致性雜湊將分散式限流進行分片,是不是可以當併發量太大降級為應用級限流;對策非常多,可以根據實際情況調節;像在京東使用Redis+Lua來限流搶購流量,一般流量是沒有問題的。

對於分散式限流目前遇到的場景是業務上的限流,而不是流量入口的限流;流量入口限流應該在接入層完成,而接入層筆者一般使用Nginx