1. 程式人生 > >Spark效能優化指南——初級篇

Spark效能優化指南——初級篇

原文來我的公眾號:Spark效能優化指南——初級篇

一. Spark作業原理

我們使用spark-submit提交一個Spark作業之後,這個作業就會啟動一個對應的Driver程序。該程序是向叢集管理器(Yarn,K8s)申請執行Spark作業需要使用的資源,這裡的資源指的就是Executor程序。 YARN叢集管理器會根據我們為Spark作業設定的資源引數,在各個工作節點上,啟動一定數量的Executor程序,每個Executor程序都佔有一定數量的記憶體和CPU core。 在申請到了作業執行所需的資源之後,Driver程序就會開始排程和執行我們編寫的作業程式碼了。 Driver程序會將我們編寫的Spark作業程式碼分拆為多個stage,每個stage執行一部分程式碼片段,併為每個stage建立一批task,然後將這些task分配到各個Executor程序中執行。 task是最小的計算單元,負責執行一模一樣的計算邏輯(也就是我們自己編寫的某個程式碼片段),只是每個task處理的資料不同而已。 一個stage的所有task都執行完畢之後,會在各個節點本地的磁碟檔案中寫入計算中間結果,然後Driver就會排程執行下一個stage。 下一個stage的task的輸入資料就是上一個stage輸出的中間結果。如此迴圈往復,直到將我們自己編寫的程式碼邏輯全部執行完,並且計算完所有的資料,得到我們想要的結果為止。
Spark是根據shuffle類運算元來進行stage的劃分。如果我們的程式碼中執行了某個shuffle類運算元(比如reduceByKey、join等),那麼就會在該運算元處,劃分出一個stage界限來。 可以大致理解為,shuffle運算元執行之前的程式碼會被劃分為一個stage,shuffle運算元執行以及之後的程式碼會被劃分為下一個stage。   因此一個stage剛開始執行的時候,它的每個task可能都會從上一個stage的task所在的節點,去通過網路傳輸拉取需要自己處理的所有key,然後對拉取到的所有相同的key使用我們自己編寫的運算元函式執行聚合操作(比如reduceByKey()運算元接收的函式)。這個過程就是shuffle。
當我們在程式碼中執行了cache/persist等持久化操作時,根據我們選擇的持久化級別的不同,每個task計算出來的資料也會儲存到Executor程序的記憶體或者所在節點的磁碟檔案中。   因此Executor的記憶體主要分為三塊: 第一塊是讓task執行我們自己編寫的程式碼時使用,預設是佔Executor總記憶體的20%; 第二塊是讓task通過shuffle過程拉取了上一個stage的task的輸出後,進行聚合等操作時使用,預設也是佔Executor總記憶體的20%; 第三塊是讓RDD持久化時使用,預設佔Executor總記憶體的60%。   task的執行速度是跟每個Executor程序的CPU core數量有直接關係的。一個CPU core同一時間只能執行一個執行緒。而每個Executor程序上分配到的多個task,都是以每個task一條執行緒的方式,多執行緒併發執行的。 如果CPU core數量比較充足,而且分配到的task數量比較合理,那麼通常來說,可以比較快速和高效地執行完這些task執行緒。  

二.核心調優引數

num-executors:

該引數用於設定Spark作業總共要用多少個Executor程序來執行。Driver在向YARN叢集管理器申請資源時,YARN叢集管理器會盡可能按照你的設定來在叢集的各個工作節點上,啟動相應數量的Executor程序。這個引數非常之重要,如果不設定的話,預設只會給你啟動少量的Executor程序,此時你的Spark作業的執行速度是非常慢的。(建議50~100個左右的Executor程序)  

executor-memory:

該引數用於設定每個Executor程序的記憶體。Executor記憶體的大小,很多時候直接決定了Spark作業的效能,而且跟常見的JVM OOM異常,也有直接的關聯。(根據作業大小不同,建議設定4G~8G,num-executors乘以executor-memory,是不能超過佇列的最大記憶體量的)  

executor-cores:

該引數用於設定每個Executor程序的CPU core數量。這個引數決定了每個Executor程序並行執行task執行緒的能力。因為每個CPU core同一時間只能執行一個task執行緒,因此每個Executor程序的CPU core數量越多,越能夠快速地執行完分配給自己的所有task執行緒。(建議設定為2~4個,且num-executors * executor-cores不要超過佇列總CPU core的1/3~1/2)  

driver-memory:

該引數用於設定Driver程序的記憶體(建議設定512M到1G)。  

spark.default.parallelism:

該引數用於設定每個stage的預設task數量。這個引數極為重要,如果不設定可能會直接影響你的Spark作業效能。(建議為50~500左右,預設情況下Spark自己根據底層HDFS的block數量來設定task的數量,預設是一個HDFS block對應一個task。Spark官網建議設定該引數為num-executors * executor-cores的2~3倍較為合適)  

spark.storage.memoryFraction:

該引數用於設定RDD持久化資料在Executor記憶體中能佔的比例,預設是0.6(原則上是儘可能保證資料能夠全部在記憶體中,但如果發現作業發生頻繁的GC,就該考慮是否調小)  

spark.shuffle.memoryFraction:

該引數用於設定shuffle過程中一個task拉取到上個stage的task的輸出後,進行聚合操作時能夠使用的Executor記憶體的比例,預設是0.2。也就是說,Executor預設只有20%的記憶體用來進行該操作。shuffle操作在進行聚合時,如果發現使用的記憶體超出了這個20%的限制,那麼多餘的資料就會溢寫到磁碟檔案中去,此時就會極大地降低效能。(shuffle操作較多時,建議降低持久化操作的記憶體佔比,提高shuffle操作的記憶體佔比比例,避免shuffle過程中資料過多時記憶體不夠用,必須溢寫到磁碟上,降低了效能)

 

微信掃描二維碼,關注我的公眾號 我的個人網站:http://www.itrensheng.com/

&n