1. 程式人生 > >Web網站的幾個並發量級

Web網站的幾個並發量級

5% 當下 災難 模式 cnblogs 數量級 strong get 沒有

評價一個網站的“大小”,處於視角的不同,有很多種衡量的方法,類似文章數,頁面數之類的數據非常明顯,也沒有什麽可以爭議的。但對於並發來說,爭議非常之多,這裏就從一個技術的角度開始,談談幾個Web網站的數量級。

相信很多人談論一個網站的熱度,總免不了會詢問日均PV,同時在線人數、註冊用戶數等運營數據,說實話從技術角度來說,這幾個數值沒有一個可以放在一起比較的——一個靜態網站的PV跟一個SNS類/Web Game網站的PV根本就不是一回事。由於互聯網有一個傳說中的“3秒定律”,可能當下更多的網站技術指標要求1.5秒以內加載整頁,或者至少可以達到閱讀的標準。如果要較真什麽“同時在線”,毫不客氣的說,對於HTTP這類短鏈接的網絡協議來說,在WebSocket還不普及的時代,能統計在線純屬扯淡,唯一能做的只是取個時間段,計算下訪問用戶而已。這些依然可以換算成QPS(Quest Per Second每秒請求數)。就並發而言,我唯一推崇的只有理論最大QPS和悲觀QPS。

這裏就大致根據理論最大QPS,給網站做幾個分類

50QPS以下——小網站

沒什麽好說的,簡單的小網站而已,就如同本站這樣,你可以用最簡單的方法快速搭建,短期沒有太多的技術瓶頸,只要服務器不要太爛就好。

50~100QPS——DB極限型

大部分的關系型數據庫的每次請求大多都能控制在0.01秒左右,即便你的網站每頁面只有一次DB請求,那麽頁面請求無法保證在1秒鐘內完成100個請求,這個階段要考慮做Cache或者多DB負載。無論那種方案,網站重構是不可避免的。

300~800QPS——帶寬極限型

目前服務器大多用了IDC提供的“百兆帶寬”,這意味著網站出口的實際帶寬是8M Byte左右。假定每個頁面只有10K Byte,在這個並發條件下,百兆帶寬已經吃完。首要考慮是CDN加速/異地緩存,多機負載等技術。

500~1000QPS——內網帶寬極限+Memcache極限型

由於Key/value的特性,每個頁面對memcache的請求遠大於直接對DB的請求,Memcache的悲觀並發數在2w左右,看似很高,但事實上大多數情況下,首先是有可能在次之前內網的帶寬就已經吃光,接著是在8K QPS左右的情況下,Memcache已經表現出了不穩定,如果代碼上沒有足夠的優化,可能直接將壓力轉嫁到了DB層上,這就最終導致整個系統在達到某個閥值之上,性能迅速下滑。

1000~2000QPS——FORK/SELECT,鎖模式極限型

好吧,一句話:線程模型決定吞吐量。不管你系統中最常見的鎖是什麽鎖,這個級別下,文件系統訪問鎖都成為了災難。這就要求系統中不能存在中央節點,所有的數據都必須分布存儲,數據需要分布處理。總之,關鍵詞:分布

2000QPS以上——C10K極限

盡管現在很多應用已經實現了C25K,但短板理論告訴我們,決定網站整體並發的永遠是最低效的那個環節。我承認我生涯中從未遇到過2000QPS以上,甚至1.5K以上的網站,希望有此經驗的哥們可以一起交流下

轉:http://www.litrin.net/2013/03/27/web%E7%BD%91%E7%AB%99%E7%9A%84%E5%87%A0%E4%B8%AA%E5%B9%B6%E5%8F%91%E9%87%8F%E7%BA%A7/

Web網站的幾個並發量級