1. 程式人生 > >yarn資源排程引數配置(記憶體,cpu)

yarn資源排程引數配置(記憶體,cpu)

Hadoop  YARN同時支援記憶體和CPU兩種資源的排程(預設只支援記憶體,如果想進一步排程CPU,需要自己進行一些配置),本文將介紹YARN是如何對這些資源進行排程和隔離的。

在YARN中,資源管理由ResourceManager和NodeManager共同完成,其中,ResourceManager中的排程器負責資源的分配,而NodeManager則負責資源的供給和隔離。ResourceManager將某個NodeManager上資源分配給任務(這就是所謂的“資源排程”)後,NodeManager需按照要求為任務提供相應的資源,甚至保證這些資源應具有獨佔性,為任務執行提供基礎的保證,這就是所謂的資源隔離。

關於Hadoop YARN資源排程器的詳細介紹,可參考我的這篇文章:YARN/MRv2 Resource Manager深入剖析—資源排程器

在正式介紹具體的資源排程和隔離之前,先品味一下記憶體和CPU這兩種資源的特點,這是兩種性質不同的資源。記憶體資源的多少會會決定任務的生死,如果記憶體不夠,任務可能會執行失敗;相比之下,CPU資源則不同,它只會決定任務執行的快慢,不會對生死產生影響。

【YARN中記憶體資源的排程和隔離】

基於以上考慮,YARN允許使用者配置每個節點上可用的實體記憶體資源,注意,這裡是“可用的”,因為一個節點上的記憶體會被若干個服務共享,比如一部分給YARN,一部分給HDFS,一部分給HBase等,YARN配置的只是自己可以使用的,配置引數如下:

(1)yarn.nodemanager.resource.memory-mb

表示該節點上YARN可使用的實體記憶體總量,預設是8192(MB),注意,如果你的節點記憶體資源不夠8GB,則需要調減小這個值,而YARN不會智慧的探測節點的實體記憶體總量。

(2)yarn.nodemanager.vmem-pmem-ratio

任務每使用1MB實體記憶體,最多可使用虛擬記憶體量,預設是2.1。

(3) yarn.nodemanager.pmem-check-enabled

是否啟動一個執行緒檢查每個任務正使用的實體記憶體量,如果任務超出分配值,則直接將其殺掉,預設是true。

(4) yarn.nodemanager.vmem-check-enabled

是否啟動一個執行緒檢查每個任務正使用的虛擬記憶體量,如果任務超出分配值,則直接將其殺掉,預設是true。

(5)yarn.scheduler.minimum-allocation-mb

單個任務可申請的最少實體記憶體量,預設是1024(MB),如果一個任務申請的實體記憶體量少於該值,則該對應的值改為這個數。

(6)yarn.scheduler.maximum-allocation-mb

單個任務可申請的最多實體記憶體量,預設是8192(MB)。

預設情況下,YARN採用了執行緒監控的方法判斷任務是否超量使用記憶體,一旦發現超量,則直接將其殺死。由於Cgroups對記憶體的控制缺乏靈活性(即任務任何時刻不能超過記憶體上限,如果超過,則直接將其殺死或者報OOM),而Java程序在建立瞬間記憶體將翻倍,之後驟降到正常值,這種情況下,採用執行緒監控的方式更加靈活(當發現程序樹記憶體瞬間翻倍超過設定值時,可認為是正常現象,不會將任務殺死),因此YARN未提供Cgroups記憶體隔離機制。

【YARN中CPU資源的排程和隔離】

在YARN中,CPU資源的組織方式仍在探索中,目前(2.2.0版本)只是一個初步的,非常粗粒度的實現方式,更細粒度的CPU劃分方式已經提出來了,正在完善和實現中。

目前的CPU被劃分成虛擬CPU(CPU virtual Core),這裡的虛擬CPU是YARN自己引入的概念,初衷是,考慮到不同節點的CPU效能可能不同,每個CPU具有的計算能力也是不一樣的,比如某個物理CPU的計算能力可能是另外一個物理CPU的2倍,這時候,你可以通過為第一個物理CPU多配置幾個虛擬CPU彌補這種差異。使用者提交作業時,可以指定每個任務需要的虛擬CPU個數。在YARN中,CPU相關配置引數如下:

(1)yarn.nodemanager.resource.cpu-vcores

表示該節點上YARN可使用的虛擬CPU個數,預設是8,注意,目前推薦將該值設值為與物理CPU核數數目相同。如果你的節點CPU核數不夠8個,則需要調減小這個值,而YARN不會智慧的探測節點的物理CPU總數。

(2) yarn.scheduler.minimum-allocation-vcores

單個任務可申請的最小虛擬CPU個數,預設是1,如果一個任務申請的CPU個數少於該數,則該對應的值改為這個數。

(3)yarn.scheduler.maximum-allocation-vcores

單個任務可申請的最多虛擬CPU個數,預設是32。

預設情況下,YARN是不會對CPU資源進行排程的,你需要配置相應的資源排程器讓你支援,具體可參考我的這兩篇文章:

(1)Hadoop YARN配置引數剖析(4)—Fair Scheduler相關引數

(2)Hadoop YARN配置引數剖析(5)—Capacity Scheduler相關引數

預設情況下,NodeManager不會對CPU資源進行任何隔離,你可以通過啟用Cgroups讓你支援CPU隔離。

由於CPU資源的獨特性,目前這種CPU分配方式仍然是粗粒度的。舉個例子,很多工可能是IO密集型的,消耗的CPU資源非常少,如果此時你為它分配一個CPU,則是一種嚴重浪費,你完全可以讓他與其他幾個任務公用一個CPU,也就是說,我們需要支援更粒度的CPU表達方式。

借鑑亞馬遜EC2中CPU資源的劃分方式,即提出了CPU最小單位為EC2 Compute Unit(ECU),一個ECU代表相當於1.0-1.2 GHz 2007 Opteron or 2007 Xeon處理器的處理能力。YARN提出了CPU最小單位YARN Compute Unit(YCU),目前這個數是一個整數,預設是720,由引數yarn.nodemanager.resource.cpu-ycus-per-core設定,表示一個CPU core具備的計算能力(該feature在2.2.0版本中並不存在,可能增加到2.3.0版本中),這樣,使用者提交作業時,直接指定需要的YCU即可,比如指定值為360,表示用1/2個CPU core,實際表現為,只使用一個CPU core的1/2計算時間。注意,在作業系統層,CPU資源是按照時間片分配的,你可以說,一個程序使用1/3的CPU時間片,或者1/5的時間片。對於CPU資源劃分和排程的探討,可參考以下幾個連結:

https://issues.apache.org/jira/browse/YARN-1089

https://issues.apache.org/jira/browse/YARN-1024

Hadoop 新特性、改進、優化和Bug分析系列5:YARN-3

【總結】

目前,YARN 記憶體資源排程借鑑了Hadoop 1.0中的方式,比較合理,但CPU資源的排程方式仍在不斷改進中,目前只是一個初步的粗糙實現,相信在不久的將來,YARN 中CPU資源的排程將更加完善。