1. 程式人生 > >hive sql執行的job在map時報java.lang.OutOfMemoryError的錯誤

hive sql執行的job在map時報java.lang.OutOfMemoryError的錯誤

reduce -xmx apr 執行 mapred ive yar 參數調整 成功

較為詳細且重要的一段報錯信息是org.apache.hadoop.mapred.YarnChild: Error running child : java.lang.OutOfMemoryError: Java heap space

說一下解決方案,其實這個解決過程完全是摸索著來的。

set mapreduce.map.java.opts=-Xmx1024m
set mapred.max.split.size=100000000;
set mapred.min.split.size.per.node=100000000;
set mapred.min.split.size.per.rack=100000000;

其實就是設置了以上四個參數,先是設置了後面三個參數,發現可以增加map的個數,然後成功的map數也多了,後邊就幹脆將第一個參數調整為1G。

其實感覺就算不調整第一個參數,單純為後邊三個參數設置更小的值,錯誤應該也會得到解決,不過這個我沒試。

hive sql執行的job在map時報java.lang.OutOfMemoryError的錯誤