1. 程式人生 > >【HDFS】解決hadoop fs -put時出現createBlockOutputStream異常

【HDFS】解決hadoop fs -put時出現createBlockOutputStream異常

向HDFS上傳檔案時出現異常:

INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Got error, status message , ack with firstBadLink as 192.168.234.132:50010
        at org.apache.hadoop.hdfs.protocol.datatransfer.DataTransferProtoUtil.checkBlockOpStatus(DataTransferProtoUtil.java:142)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1497)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1400)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:554)
18/12/21 19:36:53 INFO hdfs.DFSClient: Abandoning BP-1635234535-192.168.234.133-1545332720741:blk_1073741841_1017
18/12/21 19:36:53 INFO hdfs.DFSClient: Excluding datanode DatanodeInfoWithStorage[192.168.234.132:50010,DS-94a817d7-e6a5-4a04-b234-8650abc6437c,DISK]

 

我是因為異常中那個結點機器的防火牆沒有關。

如果關了之後還是報錯可以看一下機器的程序,看看有沒有datanode在執行

如果沒有的話,執行命令hadoop-daemon.sh start datanode 會啟動機器上資料節點的守護程序。