1. 程式人生 > >linux 下檢視系統資源和負載,以及效能監控

linux 下檢視系統資源和負載,以及效能監控



命令相關:

1,檢視磁碟

df -h 2,檢視記憶體大小 free free [-m|g]按MB,GB顯示記憶體 vmstat 3,檢視cpu cat /proc/cpuinfo 只看cpu數量    grep "model name" /proc/cpuinfo | wc -l 4,檢視系統記憶體 cat /proc/meminfo 5,檢視每個程序的情況 cat /proc/5346/status 5347是pid 6,檢視負載 w uptime 7,檢視系統整體狀態 top 最後一些輸出資訊的解釋: load average: 0.09, 0.05, 0.01

三個數分別代表不同時間段的系統平均負載(一分鐘、五 分鐘、以及十五分鐘),它們的數字當然是越小越好。“有多少核心即為有多少負荷”

法則: 在多核處理中,你的系統均值不應該高於處理器核心的總數量

程序使用的記憶體可以用top,有3個列VIRT RES SHR, 標示了程序使用的記憶體情況, VIRT標識這個程序可以使用的記憶體總大小, 包括這個程序真實使用的記憶體, 對映過的檔案, 和別的程序共享的記憶體等. RES標識這個這個程序真實佔用記憶體的大小. SHR標識可以和別的程序共享的記憶體和庫大小. 8,效能監視sar命令 sar -u輸出顯示CPU資訊。-u選項是sar的預設選項。該輸出以百分比顯示CPU的使用情況 CPU CPU編號 %user 在使用者模式中執行程序所花的時間 %nice 執行正常程序所花的時間 %system 在核心模式(系統)中執行程序所花的時間 %iowait 沒有程序在該CPU上執行時,處理器等待I/O完成的時間 %idle 沒有程序在該CPU上執行的時間 sar 5 10 sar以5秒鐘間隔取得10個樣本 sar -u -p ALL 5 5 分cup顯示 sar -n { DEV | EDEV | NFS | NFSD | SOCK | ALL } sar 提供六種不同的語法選項來顯示網路資訊。-n選項使用6個不同的開關:DEV | EDEV | NFS | NFSD | SOCK | ALL 。DEV顯示網路介面資訊,EDEV顯示關於網路錯誤的統計資料,NFS統計活動的NFS客戶端的資訊,NFSD統計NFS伺服器的資訊,SOCK顯示套接字資訊,ALL顯示所有5個開關。它們可以單獨或者一起使用。 sar -n DEV 各引數含義 IFACE LAN介面 rxpck/s 每秒鐘接收的資料包 txpck/s 每秒鐘傳送的資料包 rxbyt/s 每秒鐘接收的位元組數 txbyt/s 每秒鐘傳送的位元組數 rxcmp/s 每秒鐘接收的壓縮資料包 txcmp/s 每秒鐘傳送的壓縮資料包 rxmcst/s 每秒鐘接收的多播資料包 9,檢視命令歷史(含時間戳) export HISTTIMEFORMAT='%F %T ';history| more 10,檢視資料夾和檔案大小 du -h --max-depth=0 dm 檢視dm目錄大小 du -h --max-depth=1 dm 檢視dm目錄大小,以及dm各檔案資料夾的大小

du -h --max-depth=0 檢視當前資料夾大小

分析相關

負載(load)是linux機器的一個重要指標,直觀了反應了機器當前的狀態。如果機器負載過高,那麼對機器的操作將難以進行。

Linux的負載高,主要是由於CPU使用、記憶體使用、IO消耗三部分構成。任意一項使用過多,都將導致伺服器負載的急劇攀升。

檢視伺服器負載有多種命令,w或者uptime都可以直接展示負載,

$ uptime
12:20:30 up 44 days, 21:46,  2 users,  load average: 8.99, 7.55, 5.40
$ w
12:22:02 up 44 days, 21:48,  2 users,  load average: 3.96
, 6.28, 5.16

load average分別對應於過去1分鐘,5分鐘,15分鐘的負載平均值。

什麼是Load?什麼是Load Average? 

  Load 就是對計算機幹活多少的度量(WikiPedia:the system Load is a measure of the amount of work that a compute system is doing)簡單的說是程序佇列的長度。Load Average 就是一段時間(1分鐘、5分鐘、15分鐘)內平均Load

如何判斷系統是否已經Over Load
  對一般的系統來說,根據cpu數量去判斷。如果平均負載始終在1.2以下,而你有2顆cup的機器。那麼基本不會出現cpu不夠用的情況。也就是Load平均要小於Cpu的數量,一般是會根據15分鐘那個load 平均值為首先

這兩個命令只是單純的反映出負載,linux提供了更為強大,也更為實用的top命令來檢視伺服器負載。

$top

技術分享

Tasks行展示了目前的程序總數及所處狀態,要注意zombie,表示殭屍程序,不為0則表示有程序出現問題。

Cpu(s)行展示了當前CPU的狀態,us表示使用者程序佔用CPU比例,sy表示核心程序佔用CPU比例,id表示空閒CPU百分比,wa表示IO等待所佔用的CPU時間的百分比。wa佔用超過30%則表示IO壓力很大

Mem行展示了當前記憶體的狀態,total是總的記憶體大小,userd是已使用的,free是剩餘的,buffers是目錄快取。

Swap行同Mem行,cached表示快取,使用者已開啟的檔案。如果Swap的used很高,則表示系統記憶體不足

在top命令下,按1,則可以展示出伺服器有多少CPU,及每個CPU的使用情況

技術分享

一般而言,伺服器的合理負載是CPU核數*2。也就是說對於8核的CPU,負載在16以內表明機器執行很穩定流暢。如果負載超過16了,就說明伺服器的執行有一定的壓力了。

在top命令下,按shift + "c",則將程序按照CPU使用率從大到小排序按shift+"p",則將程序按照記憶體使用率從大到小排序,很容易能夠定位出哪些服務佔用了較高的CPU和記憶體。

僅僅有top命令是不夠的,因為它僅能展示CPU和記憶體的使用情況,對於負載升高的另一重要原因——IO沒有清晰明確的展示。linux提供了iostat命令,可以瞭解io的開銷。

輸入iostat -x 1 10命令,表示開始監控輸入輸出狀態,-x表示顯示所有引數資訊,1表示每隔1秒監控一次,10表示共監控10次

技術分享

其中rsec/s表示讀入,wsec/s表示每秒寫入,這兩個引數某一個特別高的時候就表示磁碟IO有很大壓力,util表示IO使用率,如果接近100%,說明IO滿負荷運轉。 

檢視系統負載vmstat

$vmstat
procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 689568 121068 1397252 0 0 77 8 110 745 4 1 93 1 0

r 列表示執行和等待cpu時間片的程序數,如果長期大於1,說明cpu不足,需要增加cpu。 
b 列表示在等待資源的程序數,比如正在等待I/O、或者記憶體交換等。 cpu 表示cpu的使用狀態 
us 列顯示了使用者方式下所花費 CPU 時間的百分比。us的值比較高時,說明使用者程序消耗的cpu時間多,但是如果長期大於50%,需要考慮優化使用者的程式。 
sy 列顯示了核心程序所花費的cpu時間的百分比。這裡us + sy的參考值為80%,如果us+sy 大於 80%說明可能存在CPU不足。 
wa 列顯示了IO等待所佔用的CPU時間的百分比。這裡wa的參考值為30%,如果wa超過30%,說明IO等待嚴重,這可能是磁碟大量隨機訪問造成的,也可能磁碟或者磁碟訪問控制器的頻寬瓶頸造成的(主要是塊操作)。 
id 列顯示了cpu處在空閒狀態的時間百分比 system 顯示採集間隔內發生的中斷數 
in 列表示在某一時間間隔中觀測到的每秒裝置中斷數。 cs列表示每秒產生的上下文切換次數,如當 cs 比磁碟 I/O 和網路資訊包速率高得多,都應進行進一步調查。
memory 
swpd 切換到記憶體交換區的記憶體數量(k表示)。如果swpd的值不為0,或者比較大,比如超過了100m,只要si、so的值長期為0,系統性能還是正常 
free 當前的空閒頁面列表中記憶體數量(k表示) buff 作為buffer cache的記憶體數量,一般對塊裝置的讀寫才需要緩衝。 cache: 作為page cache的記憶體數量,一般作為檔案系統的cache,如果cache較大,說明用到cache的檔案較多,如果此時IO中bi比較小,說明檔案系統效率比較好。 swap 
si 由記憶體進入記憶體交換區數量。 so由記憶體交換區進入記憶體數量。 IO 
bi 從塊裝置讀入資料的總量(讀磁碟)(每秒kb)。 bo 塊裝置寫入資料的總量(寫磁碟)(每秒kb) 
這裡我們設定的bi+bo參考值為1000,如果超過1000,而且wa值較大應該考慮均衡磁碟負載,可以結合iostat輸出來分析

Load誤解:
1:系統load高一定是效能有問題。
    真相:Load高也許是因為在進行cpu密集型的計算
        2:系統Load高一定是CPU能力問題或數量不夠。
    真相:Load高只是代表需要執行的佇列累計過多了。但佇列中的任務實際可能是耗Cpu的,也可能是耗i/0及其他因素的。
3:系統長期Load高,首先增加CPU
    真相:Load只是表象,不是實質。增加CPU個別情況下會臨時看到Load下降,但治標不治本。

2:在Load average 高的情況下如何鑑別系統瓶頸。
   是CPU不足,還是io不夠快造成或是記憶體不足?

2.1:檢視系統負載vmstat
Vmstat
procs -----------memory---------- ---swap-- -----io---- --system-- ----cpu----
r b swpd free buff cache si so bi bo in cs us sy id wa
0 0 100152 2436 97200 289740 0 1 34 45 99 33 0 0 99 0

procs
r 列表示執行和等待cpu時間片的程序數,如果長期大於1,說明cpu不足,需要增加cpu。
b 列表示在等待資源的程序數,比如正在等待I/O、或者記憶體交換等。
cpu 表示cpu的使用狀態
us 列顯示了使用者方式下所花費 CPU 時間的百分比。us的值比較高時,說明使用者程序消耗的cpu時間多,但是如果長期大於50%,需要考慮優化使用者的程式。
sy 列顯示了核心程序所花費的cpu時間的百分比。這裡us + sy的參考值為80%,如果us+sy 大於 80%說明可能存在CPU不足。
wa 列顯示了IO等待所佔用的CPU時間的百分比。這裡wa的參考值為30%,如果wa超過30%,說明IO等待嚴重,這可能是磁碟大量隨機訪問造成的,也可能磁碟或者磁碟訪問控制器的頻寬瓶頸造成的(主要是塊操作)。
id 列顯示了cpu處在空閒狀態的時間百分比
system 顯示採集間隔內發生的中斷數
in 列表示在某一時間間隔中觀測到的每秒裝置中斷數。
cs列表示每秒產生的上下文切換次數,如當 cs 比磁碟 I/O 和網路資訊包速率高得多,都應進行進一步調查。
memory
swpd 切換到記憶體交換區的記憶體數量(k表示)。如果swpd的值不為0,或者比較大,比如超過了100m,只要si、so的值長期為0,系統性能還是正常
free 當前的空閒頁面列表中記憶體數量(k表示)
buff 作為buffer cache的記憶體數量,一般對塊裝置的讀寫才需要緩衝。
cache: 作為page cache的記憶體數量,一般作為檔案系統的cache,如果cache較大,說明用到cache的檔案較多,如果此時IO中bi比較小,說明檔案系統效率比較好。
swap
si 由記憶體進入記憶體交換區數量。
so由記憶體交換區進入記憶體數量。
IO
bi 從塊裝置讀入資料的總量(讀磁碟)(每秒kb)。
bo 塊裝置寫入資料的總量(寫磁碟)(每秒kb)
這裡我們設定的bi+bo參考值為1000,如果超過1000,而且wa值較大應該考慮均衡磁碟負載,可以結合iostat輸出來分析。

   2.2:檢視磁碟負載iostat
每隔2秒統計一次磁碟IO資訊,直到按Ctrl+C終止程式,-d 選項表示統計磁碟資訊, -k 表示以每秒KB的形式顯示,-t 要求打印出時間資訊,2 表示每隔 2 秒輸出一次。第一次輸出的磁碟IO負載狀況提供了關於自從系統啟動以來的統計資訊。隨後的每一次輸出則是每個間隔之間的平均IO負載狀況。

# iostat -x 1 10
Linux 2.6.18-92.el5xen 02/03/2009
avg-cpu:   %user %nice %system %iowait   %steal %idle
            1.10 0.00 4.82 39.54 0.07 54.46
Device:       rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await   svctm   %util
   sda             0.00     3.50   0.40   2.50     5.60 48.00 18.48     0.00 0.97 0.97 0.28
   sdb             0.00     0.00   0.00   0.00     0.00     0.00     0.00     0.00 0.00 0.00 0.00
   sdc             0.00     0.00   0.00   0.00     0.00     0.00     0.00     0.00 0.00 0.00 0.00
   sdd             0.00     0.00   0.00   0.00     0.00     0.00     0.00     0.00 0.00 0.00 0.00
   sde             0.00     0.10   0.30   0.20     2.40     2.40     9.60     0.00 1.60 1.60 0.08
   sdf              17.40     0.50 102.00   0.20 12095.20     5.60 118.40     0.70 6.81 2.09   21.36
   sdg          232.40     1.90 379.70   0.50 76451.20 19.20 201.13     4.94 13.78 2.45   93.16
   rrqm/s: 每秒進行 merge 的讀運算元目。即 delta(rmerge)/s
   wrqm/s:   每秒進行 merge 的寫運算元目。即 delta(wmerge)/s
   r/s:           每秒完成的讀 I/O 裝置次數。即 delta(rio)/s
   w/s:       每秒完成的寫 I/O 裝置次數。即 delta(wio)/s
   rsec/s: 每秒讀扇區數。即 delta(rsect)/s
   wsec/s: 每秒寫扇區數。即 delta(wsect)/s
   rkB/s:   每秒讀K位元組數。是 rsect/s 的一半,因為每扇區大小為512位元組。(需要計算)
   wkB/s: 每秒寫K位元組數。是 wsect/s 的一半。(需要計算)
   avgrq-sz: 平均每次裝置I/O操作的資料大小 (扇區)。delta(rsect+wsect)/delta(rio+wio)
   avgqu-sz: 平均I/O佇列長度。即 delta(aveq)/s/1000 (因為aveq的單位為毫秒)。
   await: 平均每次裝置I/O操作的等待時間 (毫秒)。即 delta(ruse+wuse)/delta(rio+wio)
   svctm: 平均每次裝置I/O操作的服務時間 (毫秒)。即 delta(use)/delta(rio+wio)
   %util:    一秒中有百分之多少的時間用於 I/O 操作,或者說一秒中有多少時間 I/O 佇列是非空的。即 delta(use)/s/1000 (因為use的單位為毫秒)
  
   如果 %util 接近 100%,說明產生的I/O請求太多,I/O系統已經滿負荷,該磁碟
   可能存在瓶頸。
   idle小於70% IO壓力就較大了,一般讀取速度有較多的wait.
  
   同時可以結合vmstat 檢視檢視b引數(等待資源的程序數)和wa引數(IO等待所佔用的CPU時間的百分比,高過30%時IO壓力高)
  
   另外還可以參考
   一般:
   svctm < await (因為同時等待的請求的等待時間被重複計算了),
   svctm的大小一般和磁碟效能有關:CPU/記憶體的負荷也會對其有影響,請求過多也會間接導致 svctm 的增加。
   await: await的大小一般取決於服務時間(svctm) 以及 I/O 佇列的長度和 I/O 請求的發出模式。
   如果 svctm 比較接近 await,說明I/O 幾乎沒有等待時間;
   如果 await 遠大於 svctm,說明 I/O佇列太長,應用得到的響應時間變慢,
   如果響應時間超過了使用者可以容許的範圍,這時可以考慮更換更快的磁碟,調整核心 elevator演算法,優化應用,或者升級 CPU。
   佇列長度(avgqu-sz)也可作為衡量系統 I/O 負荷的指標,但由於 avgqu-sz 是按照單位時間的平均值,所以不能反映瞬間的 I/O 洪水。