1. 程式人生 > >hadoop中datanode無法啟動

hadoop中datanode無法啟動

 多日無暇學習使用Hadoop了,今天在練習安裝使用Hive的時候發現檔案無法從本地拷貝到hadoop集群系統,老是報錯,錯誤內容為:

java.io.IOException: File  … could only be replicated to 0 nodes, instead of 1。查詢namenode的日誌,也是報這個錯,而且非常多,即便在啟動的時候也是報類似的錯誤。這個學習環境為單namenode+2個datanode,使用dfsadmin -report報無資料節點,如下:

[[email protected] hadoop]$ hadoop dfsadmin -report

Configured Capacity: 0 (0 KB)
Present Capacity: 0 (0 KB)
DFS Remaining: 0 (0 KB)
DFS Used: 0 (0 KB)
DFS Used%: ?%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0

————————————————-
Datanodes available: 0 (0 total, 0 dead)

重新格式化namenode,並重新啟動,故障依舊,清除歷史日誌,從datanode節點的日誌發現了錯誤“Incompatible namespaceIDs “,刪除了datanode的dfs.data.dir目錄,並重建,然後重新格式化namenode、啟動,發現dfsadmin -report還是沒有資料節點加入。再查日誌,發現錯誤不同了:All directories in dfs.data.dir are invalid。沒有生成目錄結構,正納悶呢,發現日誌中前面有警告:

Invalid directory in dfs.data.dir: Incorrect permissio
n for /hadoop/hadoop-data, expected: rwxr-xr-x, while actual: rwxrwxr-x。

    根據警告內容,分別在兩個datanode上修改該目錄許可權:

[[email protected] logs]$ ssh datanode01.hadoop
Last login: Wed Mar 14 01:58:39 2012 from namenode.hadoop
[[email protected] ~]$ chmod g-w /hadoop/hadoop-data/
[

[email protected] ~]$ exit

[[email protected] logs]$ ssh datanode02.hadoop
Last login: Wed Mar 14 01:59:00 2012 from datanode01.hadoop
[[email protected] ~]$ chmod g-w /hadoop/hadoop-data/
[[email protected] ~]$ exit

啟動後,故障解除:

[[email protected] hadoop]$ hadoop dfsadmin -report
Configured Capacity: 158030774272 (147.18 GB)
Present Capacity: 141718949918 (131.99 GB)
DFS Remaining: 141718892544 (131.99 GB)
DFS Used: 57374 (56.03 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0

————————————————-
Datanodes available: 2 (2 total, 0 dead)

Name: 172.21.126.102:50010
Decommission Status : Normal
Configured Capacity: 79015387136 (73.59 GB)
DFS Used: 28687 (28.01 KB)
Non DFS Used: 8155709425 (7.6 GB)
DFS Remaining: 70859649024(65.99 GB)
DFS Used%: 0%
DFS Remaining%: 89.68%
Last contact: Wed Mar 14 01:40:41 CST 2012

Name: 172.21.126.103:50010
Decommission Status : Normal
Configured Capacity: 79015387136 (73.59 GB)
DFS Used: 28687 (28.01 KB)
Non DFS Used: 8156114929 (7.6 GB)
DFS Remaining: 70859243520(65.99 GB)
DFS Used%: 0%
DFS Remaining%: 89.68%
Last contact: Wed Mar 14 01:40:41 CST 2012

執行hive測試,也能正常使用了:

hive> create table dummy(value STRING);
OK
Time taken: 10.642 seconds
hive> load data local inpath ‘/tmp/dummy.txt’ overwrite into table dummy;
Copying data from file:/tmp/dummy.txt
Copying file: file:/tmp/dummy.txt
Loading data to table default.dummy
Deleted hdfs://namenode.hadoop/user/hive/warehouse/dummy
OK
Time taken: 0.439 seconds
hive> select * from dummy;
OK
X
Time taken: 0.254 seconds
hive>


沒想到資料目錄的許可權檢查如此嚴格,多了使用者組的寫許可權能造成集群系統的無法啟動,在這記錄,以備查。

就是hadoop檔案許可權多增加了寫的許可權,造成datanode無法啟動,去掉寫的許可權就可以了!


相關推薦

hadoopdatanode無法啟動

 多日無暇學習使用Hadoop了,今天在練習安裝使用Hive的時候發現檔案無法從本地拷貝到hadoop集群系統,老是報錯,錯誤內容為: java.io.IOException: File  … could only be replicated to 0 nodes, i

HadoopnameNode無法啟動的問題

**學會看日誌** Incompatible clusterIDs in /media/F/hadoop/tmp/dfs/data: namenode clusterID = CID-319eb80a-7329-4f54-9e95-5d58fa6f5f01; datanode clusterID

HadoopDataNode無法啟動問題解決

java.io.IOException: File  … could only be replicated to 0 nodes, instead of 1。  使用dfsadmin -report報無資料節點,如下: [Hadoop@namenode hadoop]$

重新格式化hadoop的namenode導致datanode無法啟動的最簡單解決辦法

導致 roo 報錯信息 不一致 atan 格式化 exceptio nco ava 一般namenode只格式化一次,重新格式化不僅會導致之前的數據都不可用,而且datanode也會無法啟動。在datanode日誌中會有類似如下的報錯信息: java.io.IOExcep

hadoop datanode 無法啟動

由於工作需要,需要部署一個新的環境使用者開發。 於是,我將在其他叢集執行穩定的一個工程配置全部scp到另外一個叢集,並更改包括hadoop在內的相應的配置。 更改完配置後,首先嚐試啟動hadoop服務,服務全部能夠起來。 可是,在dfsadmin -report時,發現無

hadoop datanode 無法啟動之 namenode ID 不一致解決辦法。

如何驗證叢集namenode  ID和datanode  ID 一致 首先我們將檔案存在/usr/local/hadoop_tmp/hdfs目錄下 新建datanode和name node 資料夾,並使用hadoop namenode  -format或hdfsnamen

hadoop偽分散式DataNode無法啟動

  start-dfs.sh一直啟動不了DataNode,仔細檢查了幾遍配置檔案都沒有發現什麼問題,有format了好幾次也不行。看DataNode的日誌發現這個: java.io.IOException: Incompatible clusterIDs in /usr/

Hadoop多次格式化導致datanode無法啟動

首先看一下報錯資訊: 017-12-14 05:07:57,636 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Starting BPOfferServices for nameservice

啟動Hadoop時候datanode沒有啟動的原因及解決方案

data 重要 http tar img 保存 src com sta 有時候我們start-dfs.sh啟動了hadoop但是發現datanode進程不存在 一、原因 當我們使用hadoop namenode -format格式化namenode時,會在namenod

namenode namespaceID與datanode namespaceID 不一致導致datanode無法啟動的問題

csdn sdn enter .net oot 改版 more version 進入 在啟動hadoop之後,發現如下datanode何在?????在重新啟動hadoop的時候,發現了問題,如下這說明datanode啟動時出錯了我們跟蹤這個問題,進入到log文件夾下,找到h

記一次springcloud整合到專案無法啟動,Failed to start bean 'eurekaAutoServiceRegistration'

貼出錯誤資訊 org.springframework.context.ApplicationContextException: Failed to start bean 'eurekaAutoServiceRegistration'; nested exception is java

phpstudy apache無法啟動 啟動一下就關閉的解決方法

今天給一個客戶配置phpstudy的時候,出現是phpstudy apache無法啟動的情況,其實也不是一點也不能啟動,而且apache的啟動狀態亮一下就自動關閉了。我記得以前我也碰到過這樣的情況,但是忘記了,先看下phpstudy官方的說法 phpStudy

AndroidStudioSDKManager無法啟動,一閃而過

在下載管理android SDK過程中,有時會出現SDK manager.exe打不開的情況,網上也羅列了各種解決辦法,其中地址為http://blog.csdn.net/pipisorry/article/details/20807505的帖子相對完整一些,但

linux Eclipse無法啟動

 1.  Error  Information [[email protected] SDP70]$ ./eclipse JVMSHRC020E An error has occured while opening semaphore JVMSHRC017E E

win10下xamppapache無法啟動的問題

12:00:39 [Apache] Error: Apache shutdown unexpectedly. 12:00:39 [Apache] This may be due to a blocked port, missing dependencies, 12

【解決辦法】Hadoop2.6.4 datanode 無法啟動,錯誤:All specified directories are failed to load.

在部署hadoop2.6.4 叢集的時候碰到下面的錯誤 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registerin

windowsXPapache無法啟動的解決方法

每次要在命令列裡面執行netsh  winsock  reset。 這種方法應該是臨時辦法 。 原因2:80埠被佔用。 使用netstat -ano 檢視埠使用情況。 很可能是Skype佔用了埠。 方法3: 地連結屬性-高階-WINS標籤,啟用LMHOST查詢前面的勾去掉

xamppApache無法啟動的解決方法

難度:10 xampp(apache+mysql+php+perl)是一個功能強大的php網站開發整合軟體包。應用xampp可以輕鬆地在各種系統下搭建php等程式的執行環 境。 今天頭一次搭建xampp發現一個問題,apache啟動不了,不論點選多少次start,都顯示如下: busy… apache st

hadoop集群無法啟動namenode: ERROR namenode.NameNode: Failed to start namenode.

無法啟動 cor html node app fail 默認 prope value 我查看了網上的原因,把core.site.xml裏的以下配置復制到了hdfs.site.xml裏,三臺機器都要復制,復制完以後在重新啟動hadoop集群,嗯~~~啟動了一個nn,還有一個n

Hadoop datanode正常啟動,但是Live nodes卻突然缺少節點

tar ade clas pos body bce href 12g class 熱h9燦秤擅樸r5廈氯仿素慚馱什澆俾腿諶nr哉認贍http://blog.sina.com.cn/s/blog_172d23f1e0102wy3m.html亮ci冒缸習劣qy攣頹凹煌用仝較露導