- 工信部備案號 滇ICP備05000110號-1
- 滇公安備案 滇53010302000111
- 增值電信業(yè)務(wù)經(jīng)營(yíng)許可證 B1.B2-20181647、滇B1.B2-20190004
- 云南互聯(lián)網(wǎng)協(xié)會(huì )理事單位
- 安全聯(lián)盟認證網(wǎng)站身份V標記
- 域名注冊服務(wù)機構許可:滇D3-20230001
- 代理域名注冊服務(wù)機構:新網(wǎng)數碼
Linux系統中的 iostat是I/O statistics(輸入/輸出統計)的縮寫(xiě),iostat工具將對系統的磁盤(pán)操作活動(dòng)進(jìn)行監視。它的特點(diǎn)是匯報磁盤(pán)活動(dòng)統計情況,同時(shí)也會(huì )匯報出CPU使用情況。同vmstat一樣,iostat也有一個(gè)弱點(diǎn),就是它不能對某個(gè)進(jìn)程進(jìn)行深入分析,僅對系統的整體情況進(jìn)行分析。iostat屬于sysstat軟件包??梢杂脃um install sysstat 直接安裝。
經(jīng)常用到一個(gè)命令如下:iostat -d -x -k 110 可以記憶下。
1.命令格式:
iostat[參數][時(shí)間][次數]
2.命令功能:
通過(guò)iostat方便查看CPU、網(wǎng)卡、tty設備、磁盤(pán)、CD-ROM 等等設備的活動(dòng)情況,負載信息。
3.命令參數:
-C 顯示CPU使用情況
-d 顯示磁?使用情況
-k 以 KB 為單位顯示
-m 以 M 為單位顯示
-N 顯示磁盤(pán)陣列(LVM) 信息
-n 顯示NFS 使用情況
-p[磁盤(pán)] 顯示磁盤(pán)和分區的情況
-t 顯示終端和CPU的信息
-x 顯示詳細信息
-V 顯示版本信息
4.使用實(shí)例:
實(shí)例1:顯示所有設備負載情況
命令:
iostat
輸出:
[root@CT1186 ~]# iostat Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 22.73 43.70 487.42 674035705 7517941952 sda1 0.00 0.00 0.00 2658 536 sda2 0.11 3.74 3.51 57721595 54202216 sda3 0.98 0.61 17.51 9454172 270023368 sda4 0.00 0.00 0.00 6 0 sda5 6.95 0.12 108.73 1924834 1677123536 sda6 2.20 0.18 31.22 2837260 481488056 sda7 12.48 39.04 326.45 602094508 5035104240
說(shuō)明:
cpu屬性值說(shuō)明:
%user:CPU處在用戶(hù)模式下的時(shí)間百分比。
%nice:CPU處在帶NICE值的用戶(hù)模式下的時(shí)間百分比?
%system:CPU處在系統模式下的時(shí)間百分比。
%iowait:CPU等待輸入輸出完成時(shí)間的百分比。
%steal:管理程序維護另一個(gè)虛擬處理器時(shí),虛擬CPU的無(wú)意識等待時(shí)間百分比。
%idle:CPU空閑時(shí)間百分比。
備注:如果%iowait的值過(guò)高,表示硬盤(pán)存在I/O瓶頸,%idle值高,表示CPU較空閑,如果%idle值高但系統響應慢時(shí),有可能是CPU等待分配內存,此時(shí)應加大內存容量。%idle值如果持續低于10,那么系統的CPU處理能力相對較低,表明系統中最需要解決的資源是CPU。
disk屬性值說(shuō)明:
rrqm/s: 每秒進(jìn)行 merge 的讀操作數目。即 rmerge/s
wrqm/s: 每秒進(jìn)行 merge 的寫(xiě)操作數目。即 wmerge/s
r/s: 每秒完成的讀 I/O 設備次數。即 rio/s
w/s: 每秒完成的寫(xiě) I/O 設備次數。即 wio/s
rsec/s: 每秒讀扇區數。即 rsect/s
wsec/s: 每秒寫(xiě)扇區數。即 wsect/s
rkB/s: 每秒讀K字節數。是 rsect/s 的一半,因為每扇區大小為512字節。
wkB/s: 每秒寫(xiě)K字節數。是 wsect/s 的一半。
avgrq-sz: 平均每次設備I/O操作的數據大小 (扇區)。
avgqu-sz: 平均I/O隊列長(cháng)度。
await: 平均每次設備I/O操作的等待時(shí)間 (毫秒)。
svctm: 平均每次設備I/O操作的服務(wù)時(shí)間 (毫秒)。
%util: 一秒中有百分之多少的時(shí)間用于 I/O 操作,即被io消耗的cpu百分比
備注:如果 %util 接近 100%,說(shuō)明產(chǎn)生的I/O請求太多,I/O系統已經(jīng)滿(mǎn)負荷,該磁盤(pán)可能存在瓶頸。如果 svctm 比較接近 await,說(shuō)明 I/O 幾乎沒(méi)有等待時(shí)間;如果 await 遠大于 svctm,說(shuō)明I/O 隊列太長(cháng),io響應太慢,則需要進(jìn)行必要優(yōu)化。如果avgqu-sz比較大,也表示有當量io在等待。
實(shí)例2:定時(shí)顯示所有信息
命令:
iostat 2 3
輸出:
[root@CT1186 ~]# iostat 2 3 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 22.73 43.70 487.42 674035705 7517947296 sda1 0.00 0.00 0.00 2658 536 sda2 0.11 3.74 3.51 57721595 54202216 sda3 0.98 0.61 17.51 9454172 270023608 sda4 0.00 0.00 0.00 6 0 sda5 6.95 0.12 108.73 1924834 1677125640 sda6 2.20 0.18 31.22 2837260 481488152 sda7 12.48 39.04 326.44 602094508 5035107144 avg-cpu: %user %nice %system %iowait %steal %idle 8.88 0.00 7.94 0.19 0.00 83.00 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 6.00 0.00 124.00 0 248 sda1 0.00 0.00 0.00 0 0 sda2 0.00 0.00 0.00 0 0 sda3 0.00 0.00 0.00 0 0 sda4 0.00 0.00 0.00 0 0 sda5 0.00 0.00 0.00 0 0 sda6 0.00 0.00 0.00 0 0 sda7 6.00 0.00 124.00 0 248 avg-cpu: %user %nice %system %iowait %steal %idle 9.12 0.00 7.81 0.00 0.00 83.07 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 4.00 0.00 84.00 0 168 sda1 0.00 0.00 0.00 0 0 sda2 0.00 0.00 0.00 0 0 sda3 0.00 0.00 0.00 0 0 sda4 0.00 0.00 0.00 0 0 sda5 0.00 0.00 0.00 0 0 sda6 4.00 0.00 84.00 0 168 sda7 0.00 0.00 0.00 0 0
說(shuō)明:
每隔 2秒刷新顯示,且顯示3次
實(shí)例3:顯示指定磁盤(pán)信息
命令:
iostat -d sda1
輸出:
[root@CT1186 ~]# iostat -d sda1 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda1 0.00 0.00 0.00 2658 536
說(shuō)明:
實(shí)例4:顯示tty和Cpu信息
命令:
iostat -t
輸出:
[root@CT1186 ~]# iostat -t Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 Time: 14時(shí)58分35秒 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn sda 22.73 43.70 487.41 674035705 7517957864 sda1 0.00 0.00 0.00 2658 536 sda2 0.11 3.74 3.51 57721595 54202216 sda3 0.98 0.61 17.51 9454172 270024344 sda4 0.00 0.00 0.00 6 0 sda5 6.95 0.12 108.73 1924834 1677128808 sda6 2.20 0.18 31.22 2837260 481488712 sda7 12.48 39.04 326.44 602094508 5035113248
說(shuō)明:
實(shí)例5:以M為單位顯示所有信息
命令:
iostat -m
輸出:
[root@CT1186 ~]# iostat -m Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn sda 22.72 0.02 0.24 329119 3670881 sda1 0.00 0.00 0.00 1 0 sda2 0.11 0.00 0.00 28184 26465 sda3 0.98 0.00 0.01 4616 131848 sda4 0.00 0.00 0.00 0 0 sda5 6.95 0.00 0.05 939 818911 sda6 2.20 0.00 0.02 1385 235102 sda7 12.48 0.02 0.16 293991 2458553
說(shuō)明:
實(shí)例6:查看TPS和吞吐量信息
命令:
iostat -d -k 1 1
輸出:
[root@CT1186 ~]# iostat -d -k 1 1 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 22.72 21.85 243.71 337017916 3758984340 sda1 0.00 0.00 0.00 1329 268 sda2 0.11 1.87 1.76 28860797 27101108 sda3 0.98 0.31 8.75 4727086 135012508 sda4 0.00 0.00 0.00 3 0 sda5 6.95 0.06 54.37 962481 838566148 sda6 2.20 0.09 15.61 1418630 240744712 sda7 12.48 19.52 163.22 301047254 2517559596
說(shuō)明:
tps:該設備每秒的傳輸次數(Indicate the number of transfers per second that were issued to the device.)?!耙淮蝹鬏敗币馑际恰耙淮蜪/O請求”。多個(gè)邏輯請求可能會(huì )被合并為“一次I/O請求”?!耙淮蝹鬏敗闭埱蟮拇笮∈俏粗?。
kB_read/s:每秒從設備(drive expressed)讀取的數據量;
kB_wrtn/s:每秒向設備(drive expressed)寫(xiě)入的數據量;
kB_read:讀取的總數據量;kB_wrtn:寫(xiě)入的總數量數據量;
這些單位都為Kilobytes。
上面的例子中,我們可以看到磁盤(pán)sda以及它的各個(gè)分區的統計數據,當時(shí)統計的磁盤(pán)總TPS是22.73,下面是各個(gè)分區的TPS。(因為是瞬間值,所以總TPS并不嚴格等于各個(gè)分區TPS的總和)
實(shí)例7:查看設備使用率(%util)、響應時(shí)間(await)
命令:
iostat -d -x -k 1 1
輸出:
[root@CT1186 ~]# iostat -d -x -k 1 1 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util sda 0.44 38.59 0.40 22.32 21.85 243.71 23.37 0.04 1.78 4.20 9.54 sda1 0.00 0.00 0.00 0.00 0.00 0.00 18.90 0.00 8.26 6.46 0.00 sda2 0.36 0.43 0.11 0.01 1.87 1.76 63.57 0.01 63.75 1.94 0.02 sda3 0.00 1.24 0.04 0.95 0.31 8.75 18.42 0.04 39.77 8.73 0.86 sda4 0.00 0.00 0.00 0.00 0.00 0.00 2.00 0.00 19.67 19.67 0.00 sda5 0.00 6.65 0.00 6.94 0.06 54.37 15.67 0.26 36.81 4.48 3.11 sda6 0.00 1.71 0.01 2.19 0.09 15.61 14.29 0.03 12.40 5.84 1.28 sda7 0.08 28.56 0.25 12.24 19.52 163.22 29.28 0.27 21.46 5.00 6.25
說(shuō)明:
rrqm/s: 每秒進(jìn)行 merge 的讀操作數目.即 delta(rmerge)/s
wrqm/s: 每秒進(jìn)行 merge 的寫(xiě)操作數目.即 delta(wmerge)/s
r/s: 每秒完成的讀 I/O 設備次數.即 delta(rio)/s
w/s: 每秒完成的寫(xiě) I/O 設備次數.即 delta(wio)/s
rsec/s: 每秒讀扇區數.即 delta(rsect)/s
wsec/s: ?秒寫(xiě)扇區數.即 delta(wsect)/s
rkB/s: 每秒讀K字節數.是 rsect/s 的一半,因為每扇區大小為512字節.(需要計算)
wkB/s: 每秒寫(xiě)K字節數.是 wsect/s 的一半.(需要計算)
avgrq-sz:平均每次設備I/O操作的數據大小 (扇區).delta(rsect+wsect)/delta(rio+wio)
avgqu-sz:平均I/O隊列長(cháng)度.即 delta(aveq)/s/1000 (因為aveq的單位為毫秒).
await? 平均每次設備I/O操作的等待時(shí)間 (毫秒).即 delta(ruse+wuse)/delta(rio+wio)
svctm: 平均每次設備I/O操作的服務(wù)時(shí)間 (毫秒).即 delta(use)/delta(rio+wio)
%util: 一秒中有百分之多少的時(shí)間用于 I/O 操作,或者說(shuō)一秒中有多少時(shí)間 I/O 隊列是非空的,即 delta(use)/s/1000 (因為use的單位為毫秒)
如果 %util 接近 100%,說(shuō)明產(chǎn)生的I/O請求太多,I/O系統已經(jīng)滿(mǎn)負荷,該磁盤(pán)可能存在瓶頸。
idle小于70% IO壓力就較大了,一般讀取速度有較多的wait。
同時(shí)可以結合vmstat 查看查看b參數(等待資源的進(jìn)程數)和wa參數(IO等待所占用的CPU時(shí)間的百分比,高過(guò)30%時(shí)IO壓力高)。
另外 await 的參數也要多和 svctm 來(lái)參考。差的過(guò)高就一定有 IO 的問(wèn)題。
avgqu-sz 也是個(gè)做 IO 調優(yōu)時(shí)需要注意的地方,這個(gè)就是直接每次操作的數據的大小,如果次數多,但數據拿的小的話(huà),其實(shí) IO 也會(huì )很小。如果數據拿的大,才IO 的數據會(huì )高。也可以通過(guò) avgqu-sz × ( r/s or w/s ) = rsec/s or wsec/s。也就是講,讀定速度是這個(gè)來(lái)決定的。
svctm 一般要小于 await (因為同時(shí)等待的請求的等待時(shí)間被重復計算了),svctm 的大小一般和磁盤(pán)性能有關(guān),CPU/內存的負荷也會(huì )對其有影響?請求過(guò)多也會(huì )間接導致 svctm 的增加。await 的大小一般取決于服務(wù)時(shí)間(svctm) 以及 I/O 隊列的長(cháng)度和 I/O 請求的發(fā)出模式。如果 svctm 比較接近 await,說(shuō)明 I/O 幾乎沒(méi)有等待時(shí)間;如果 await 遠大于 svctm,說(shuō)明 I/O 隊列太長(cháng),應用得到的響應時(shí)間變慢,如果響應時(shí)間超過(guò)了用戶(hù)可以容許的范圍,這時(shí)可以考慮更換更快的磁盤(pán),調整內核 elevator 算法,優(yōu)化應用,或者升級 CPU。
隊列長(cháng)度(avgqu-sz)也可作為衡量系統 I/O 負荷的指標,但由于 avgqu-sz 是按照單位時(shí)間的平均值,所以不能反映瞬間的 I/O 洪水。
形象的比喻:
r/s+w/s 類(lèi)似于交款人的總數
平均隊列長(cháng)度(avgqu-sz)類(lèi)似于單位時(shí)間里平均排隊人的個(gè)數
平均服務(wù)時(shí)間(svctm)類(lèi)似于收銀員的收款速度
平均等待時(shí)間(await)類(lèi)似于平均每人的等待時(shí)間
平均I/O數據(avgrq-sz)類(lèi)似于平均每人所買(mǎi)的東西多少
I/O 操作率 (%util)類(lèi)似于收款臺前有人排隊的時(shí)間比例
設備IO操作:總IO(io)/s = r/s(讀) +w/s(寫(xiě)) =1.46 + 25.28=26.74
平均每次設備I/O操作只需要0.36毫秒完成,現在卻需要10.57毫秒完成,因為發(fā)出的請求太多(每秒26.74個(gè)),假如請求時(shí)同時(shí)發(fā)出的,可以這樣計算平均等待時(shí)間:
平均等待時(shí)間=單個(gè)I/O服務(wù)器時(shí)間*(1+2+…+請求總數-1)/請求總數
每秒發(fā)出的I/0請求很多,但是平均隊列就4,表示這些請求比較均勻,大部分處理還是比較及時(shí)。
實(shí)例8:查看cpu狀態(tài)
命令:
iostat -c 1 3
輸出:
[root@CT1186 ~]# iostat -c 1 3 Linux 2.6.18-128.el5 (CT1186) 2012年12月28日 avg-cpu: %user %nice %system %iowait %steal %idle 8.30 0.02 5.07 0.17 0.00 86.44 avg-cpu: %user %nice %system %iowait %steal %idle 8.64 0.00 5.38 0.00 0.00 85.98 avg-cpu: %user %nice %system %iowait %steal %idle 7.62 0.00 5.12 0.50 0.00 86.75
補充:
查看某個(gè)進(jìn)程的io情況:yum install sysstat -y
pidstat -d 然后針對異常的進(jìn)程進(jìn)行查看。
售前咨詢(xún)
售后咨詢(xún)
備案咨詢(xún)
二維碼
TOP