1. 程式人生 > >如何解決web大流量,高並發問題

如何解決web大流量,高並發問題

數據庫訪問 負載均衡 總結 主機 blog 帶來 log 無法 explain

對於當今大流量的網站,每天幾千萬甚至上億的流量,是如何解決訪問量問題的呢?

以下是一些總結的方法: 第一,確認服務器硬件是否足夠支持當前的流量。 普通的P4服務器一般最多能支持每天10萬獨立IP,如果訪問量比這個還要大,那麽必須首先配置一臺更高性能的專用服務器才能解決問題,否則怎麽優化都不可能徹底解決性能問題。

第二,優化數據庫訪問。 服務器的負載過大,一個重要的原因是CPU負荷過大,降低服務器CPU的負荷,才能夠有效打破瓶頸。而使用靜態頁面可以使得CPU的負荷最小化。前臺實現完全的靜態化 當然最好,可以完全不用訪問數據庫,不過對於頻繁更新的網站,靜態化往往不能滿足某些功能。 緩存技術 就是另一個解決方案,就是將動態數據存儲到緩存文件中,動態網頁直接調用這些文件,而不必再訪問數據庫,WordPress和Z-Blog都大量使用這種緩存技術 。我自己也寫過一個Z-Blog的計數器插件,也是基於這樣的原理。 如果確實無法避免對數據庫的訪問,那麽可以嘗試優化數據庫的查詢SQL.避免使用Select *from這樣的語句,每次查詢只返回自己需要的結果,避免短時間內的大量SQL查詢。

第三,禁止外部的盜鏈。 外部網站的圖片或者文件盜鏈往往會帶來大量的負載壓力,因此應該嚴格限制外部對於自身的圖片或者文件盜鏈,好在目前可以簡單地通過refer來控制盜鏈,Apache自己就可以通過配置來禁止盜鏈,IIS也有一些第三方的ISAPI可以實現同樣的功能。當然,偽造refer也可以通過代碼來實現盜 鏈,不過目前蓄意偽造refer盜鏈的還不多,可以先不去考慮,或者使用非技術手段來解決,比如在圖片上增加水印。

第四,控制大文件的下載。 大文件的下載會占用很大的流量,並且對於非SCSI硬盤來說,大量文件下載會消耗CPU,使得網站響應能力下降。因此,盡量不要提供超過2M的大 文件下載,如果需要提供,建議將大文件放在另外一臺服務器上。目前有不少免費的Web2.0網站提供圖片分享和文件分享功能,因此可以盡量將圖片和文件上 傳到這些分享網站。

第五,使用不同主機分流主要流量 將文件放在不同的主機上,提供不同的鏡像供用戶下載。比如如果覺得RSS文件占用流量大,那麽使用FeedBurner或者FeedSky等服務將RSS輸出放在其他主機上,這樣別人訪問的流量壓力就大多集中在FeedBurner的主機上,RSS就不占用太多資源了。

第六,使用流量分析統計軟件。 在網站上安裝一個流量分析統計軟件,可以即時知道哪些地方耗費了大量流量,哪些頁面需要再進行優化,因此,解決流量問題還需要進行精確的統計分析 才可以。我推薦使用的流量分析統計軟件是GoogleAnalytics(Google分析)。我使用過程中感覺其效果非常不錯,稍後我將詳細介紹一下 GoogleAnalytics的一些使用常識和技巧。 1.分表 2.讀寫分離 3.前端優化。Nginx替換Apache(前端做負載均衡) 個人認為主要還是分布式架構是否到位,mysql和緩存的優化都是有限度的優化,而分布式架構做出來了,PV增長後,只需要堆機器就能擴容。

另附一些優化經驗,首先學會用explain語句分析select語句,優化索引、表結構,其次,合理運用memcache等緩存,降低mysql的負載,最後,如果可能的話,盡量用facebook的hiphop-php把PHP編譯了,提高程序效率。

如何解決web大流量,高並發問題