1. 程式人生 > >Hadoop批處理作業提交問題

Hadoop批處理作業提交問題

1. Slave節點NodeManager啟動,但是datanode未啟動

首先檢查datanode啟動節點上hadoop-2.7.2/hdfs/data/current/VERSION中的clusterid是否和namenode同目錄下clusterid一致

然後在看storageid是否存在

2. 用Hibench提交作業出現的問題

du: `hdfs://centos35:9000/HiBench/Sort/Input': No such file or directory

本人批量流式sparkstreaming轉過來的,所以忽略了一點,批量流式的資料是源源不斷到來的,而批處理作業的資料是需要指定資料所在的資料夾,且保證作業提交時資料夾中有資料。

資料發生器啟動./prepare後會向系統提交一個產生隨機數的作業,這個作業的輸出資料即使我們sort檔案的輸入資料,因此,需要等到隨機數作業執行完再提交sort作業。

3. 學會檢視log檔案,找到問題

由於log檔案會很多,這時候可以使用ls --full-time看看每個檔案的時間,來確定哪一個才是我們要檢視的檔案。