1. 程式人生 > >Hadoop實踐(四)---MR Job卡住的問題

Hadoop實踐(四)---MR Job卡住的問題

在Hadoop叢集執行MapReduce任務時出現卡死的情況

可能的原因如下:

  1. Master和Slaves機器上的hosts檔案配置的有問題

  2. Hadoop叢集配置檔案yarn-site.xml中關於資源(記憶體和虛擬記憶體的配置項)的配置不正確

  3. 編寫的MapReduce程式本身存在邏輯問題,導致執行卡死或者陷入死迴圈

  4. 在程式執行是出現記憶體溢位的情況,修改hadoop-env.sh檔案中的HADOOP_HEAP_SIZEmapreduce-site.xmlmapred.child.java.opts或者減小mapred.tasktrace.map.tasks.maximumedmapred.tasktrace.reduce.tasks.maximumed

  5. 程式執行時出現了資料傾斜的情況,打散資料,均勻分佈到叢集的各個節點進行處理