1. 程式人生 > >Dell/R730XD sas盤 raid0與JBOD性能比較

Dell/R730XD sas盤 raid0與JBOD性能比較

ops enable class all follow pset sla pan 使用

服務器配置

Dell/R730XD 2620V4*2 16G DDR4*4 300G SAS*2+6T SAS*12

oracle linux 6.9

基礎知識

RAID0

raid0組成方式:1塊或多塊磁盤組成,磁盤a寫一部分數據,b寫一部分,...,通過將數據分散到不同的磁盤,來提升速度,因此速度為單塊磁盤的n(磁盤數)倍。

優點:性能提升,是單盤的n倍;

缺點:無安全冗余,一塊壞,全完蛋。

配置單盤raid0的命令:

/opt/MegaRAID/MegaCli/MegaCli64 -PDlist -aALL | grep "ID"  | uniq | awk -F: {print $2}
| awk {print $1} Enclosure Device ID: 32 ##對每塊盤創建raid0,參數解釋: ##cfgLdAdd 可創建raid0、156 ##[Enclosure Device ID:磁盤slot] ##[WT|WB] raid寫策略:write through(不寫緩存)和write back(寫緩存),sas盤隨機寫性能比較差,因此設置WB ##[NORA|RA|ADRA] raid讀策略:no read ahead(默認)|read ahead | adpter read ahead ##[direct,cached]讀緩存模式:默認direct,讀一般不需要經過緩存 ##[CachedBadBBU
|NoCachedBadBBU]:bbu和write cache的關系,[bad bbu,write back變為write through|bad bbu,依然write back] ## a0 raid卡 adapterid /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:0] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:1] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:2] WB Direct -a0
/opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:3] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:4] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:5] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:6] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:7] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:8] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:9] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:10] WB Direct -a0 /opt/MegaRAID/MegaCli/MegaCli64 -cfgLdAdd -r0 [32:11] WB Direct -a0 ##查看設備 /opt/MegaRAID/MegaCli/MegaCli64 -cfgdsply –aALL | grep -E "DISK\ GROUP|Slot\ Number" [@s26.txyz.db.d ~]# fdisk -l | grep \/dev\/sd Disk /dev/sda: 299.4 GB, 299439751168 bytes /dev/sda1 * 1 2611 20971520 83 Linux /dev/sda2 2611 5222 20971520 83 Linux /dev/sda3 5222 7311 16777216 82 Linux swap / Solaris /dev/sda4 7311 36405 233700352 5 Extended /dev/sda5 7311 9922 20971520 83 Linux /dev/sda6 9922 36405 212726784 83 Linux Disk /dev/sdb: 6000.6 GB, 6000606183424 bytes Disk /dev/sdc: 6000.6 GB, 6000606183424 bytes Disk /dev/sdd: 6000.6 GB, 6000606183424 bytes Disk /dev/sde: 6000.6 GB, 6000606183424 bytes Disk /dev/sdf: 6000.6 GB, 6000606183424 bytes Disk /dev/sdg: 6000.6 GB, 6000606183424 bytes Disk /dev/sdh: 6000.6 GB, 6000606183424 bytes Disk /dev/sdi: 6000.6 GB, 6000606183424 bytes Disk /dev/sdj: 6000.6 GB, 6000606183424 bytes Disk /dev/sdk: 6000.6 GB, 6000606183424 bytes Disk /dev/sdl: 6000.6 GB, 6000606183424 bytes Disk /dev/sdm: 6000.6 GB, 6000606183424 bytes

JBOD

JBOD:如果說raid0是是一種橫排組合,那JBOD就是一種縱向組合,盡管有n塊盤,只能一塊寫滿之後,寫第二塊;一種邏輯組合,損壞一塊就會丟失一部分數據。

優點:損失一塊磁盤,只丟一部分數據

缺點:寫性能相當於單盤。

配置步驟:

 
##開啟adapter0的JBOD
/opt/MegaRAID/MegaCli/MegaCli64 -AdpSetProp EnableJBOD 1 -a0
 
##對32:0配置JBOD,可惜的是,無法設置一些raid卡參數
/opt/MegaRAID/MegaCli/MegaCli64 -PDMakeJBOD -physdrv[32:0]  -a0
 
##

性能測試

按上面的特性來看,多塊盤的時候,在性能上沒有可比較的地方,但本次mfs分布式存儲集群配置,需要使用單盤單卷,因此壓測場景如下:

  • 單盤raid0
  • 5塊盤raid0
  • 單塊盤JBOD
  • 5塊盤JBOD

分兩種場景:隨機寫,順序寫。壓測采用fio進行。

iops

  seq-write rand-write seq-read rand-read
RAID0 95611 7098 56266 3463
JBOD 463 971 55593 630

bandwidth(kb/s)

seq-write rand-write seq-read rand-read
RAID0 382448 28393 225065 13852
JBOD 1853.2 3886.8 222374 2521.7

看到這個結果,感覺多盤陣列沒有測的必要了。

結論

raid0單盤的順序寫性能大約是JBOD的200倍,隨機寫性能是其10倍。原因可能因為JBOD是軟raid,並不適用raid卡,而寫raid使用了WB

兩者順序讀性能相似,但隨機讀性能,raid0大約是JBOD的5倍。

Dell/R730XD sas盤 raid0與JBOD性能比較