Spark效能優化指南——初級篇
阿新 • • 發佈:2019-12-26
原文來我的公眾號:Spark效能優化指南——初級篇
一. Spark作業原理
我們使用spark-submit提交一個Spark作業之後,這個作業就會啟動一個對應的Driver程序。該程序是向叢集管理器(Yarn,K8s)申請執行Spark作業需要使用的資源,這裡的資源指的就是Executor程序。 YARN叢集管理器會根據我們為Spark作業設定的資源引數,在各個工作節點上,啟動一定數量的Executor程序,每個Executor程序都佔有一定數量的記憶體和CPU core。 在申請到了作業執行所需的資源之後,Driver程序就會開始排程和執行我們編寫的作業程式碼了。 Driver程序會將我們編寫的Spark作業程式碼分拆為多個stage,每個stage執行一部分程式碼片段,併為每個stage建立一批task,然後將這些task分配到各個Executor程序中執行。 task是最小的計算單元,負責執行一模一樣的計算邏輯(也就是我們自己編寫的某個程式碼片段),只是每個task處理的資料不同而已。 一個stage的所有task都執行完畢之後,會在各個節點本地的磁碟檔案中寫入計算中間結果,然後Driver就會排程執行下一個stage。 下一個stage的task的輸入資料就是上一個stage輸出的中間結果。如此迴圈往復,直到將我們自己編寫的程式碼邏輯全部執行完,並且計算完所有的資料,得到我們想要的結果為止。二.核心調優引數
num-executors:
該引數用於設定Spark作業總共要用多少個Executor程序來執行。Driver在向YARN叢集管理器申請資源時,YARN叢集管理器會盡可能按照你的設定來在叢集的各個工作節點上,啟動相應數量的Executor程序。這個引數非常之重要,如果不設定的話,預設只會給你啟動少量的Executor程序,此時你的Spark作業的執行速度是非常慢的。(建議50~100個左右的Executor程序)executor-memory:
該引數用於設定每個Executor程序的記憶體。Executor記憶體的大小,很多時候直接決定了Spark作業的效能,而且跟常見的JVM OOM異常,也有直接的關聯。(根據作業大小不同,建議設定4G~8G,num-executors乘以executor-memory,是不能超過佇列的最大記憶體量的)executor-cores:
該引數用於設定每個Executor程序的CPU core數量。這個引數決定了每個Executor程序並行執行task執行緒的能力。因為每個CPU core同一時間只能執行一個task執行緒,因此每個Executor程序的CPU core數量越多,越能夠快速地執行完分配給自己的所有task執行緒。(建議設定為2~4個,且num-executors * executor-cores不要超過佇列總CPU core的1/3~1/2)driver-memory:
該引數用於設定Driver程序的記憶體(建議設定512M到1G)。spark.default.parallelism:
該引數用於設定每個stage的預設task數量。這個引數極為重要,如果不設定可能會直接影響你的Spark作業效能。(建議為50~500左右,預設情況下Spark自己根據底層HDFS的block數量來設定task的數量,預設是一個HDFS block對應一個task。Spark官網建議設定該引數為num-executors * executor-cores的2~3倍較為合適)spark.storage.memoryFraction:
該引數用於設定RDD持久化資料在Executor記憶體中能佔的比例,預設是0.6(原則上是儘可能保證資料能夠全部在記憶體中,但如果發現作業發生頻繁的GC,就該考慮是否調小)spark.shuffle.memoryFraction:
該引數用於設定shuffle過程中一個task拉取到上個stage的task的輸出後,進行聚合操作時能夠使用的Executor記憶體的比例,預設是0.2。也就是說,Executor預設只有20%的記憶體用來進行該操作。shuffle操作在進行聚合時,如果發現使用的記憶體超出了這個20%的限制,那麼多餘的資料就會溢寫到磁碟檔案中去,此時就會極大地降低效能。(shuffle操作較多時,建議降低持久化操作的記憶體佔比,提高shuffle操作的記憶體佔比比例,避免shuffle過程中資料過多時記憶體不夠用,必須溢寫到磁碟上,降低了效能)微信掃描二維碼,關注我的公眾號 我的個人網站:http://www.itrensheng.com/
&n