1. 程式人生 > >hadoop datanode 無法啟動之 namenode ID 不一致解決辦法。

hadoop datanode 無法啟動之 namenode ID 不一致解決辦法。

如何驗證叢集namenode  ID和datanode  ID 一致

首先我們將檔案存在/usr/local/hadoop_tmp/hdfs目錄下

新建datanode和name node 資料夾,並使用hadoop namenode  -format或hdfsnamenode  -format(這個命令執行檔案在/usr/local/hadoop/sbin)目錄下。第一次使用會在NameNode目錄和datanode目錄下產生一個Version檔案 該檔案包含cluster ID

$ cat VERSION 

 

這裡要確保的是叢集中每個datanode中的VERSION與這個相同

需要注意的是:多次使用hadoop namenode  -format 命令時,只是格式化了NameNode中的VERSION ,datanode中的Version 還是第一次產生的。最好是將hadoop_tmp資料夾刪了,然後新建資料夾,重新使用hadoop namenode  -format。同時也可以直接將nameNode中的Version 複製到 datanode目錄下。

使用下列命令將hadoop_tmp資料夾更新到從機

sudo  rsync  -avxP /usr/local/hadoop_tmp  [email protected]:/usr/local/hadoop_tmp 

*這裡我們將資料存放在hadoop_tmp資料夾中

相關推薦

hadoop datanode 無法啟動 namenode ID 一致解決辦法

如何驗證叢集namenode  ID和datanode  ID 一致 首先我們將檔案存在/usr/local/hadoop_tmp/hdfs目錄下 新建datanode和name node 資料夾,並使用hadoop namenode  -format或hdfsnamen

hadoop datanode 無法啟動

由於工作需要,需要部署一個新的環境使用者開發。 於是,我將在其他叢集執行穩定的一個工程配置全部scp到另外一個叢集,並更改包括hadoop在內的相應的配置。 更改完配置後,首先嚐試啟動hadoop服務,服務全部能夠起來。 可是,在dfsadmin -report時,發現無

centos7 無法啟動網路(service network restart)錯誤解決辦法

# service network restart 錯誤資訊 Restarting network (via systemctl):  Job for network.service failed because the control process exited wit

手動備份與恢復 Windows 8.1 啟用及產品ID可用解決辦法

A.備份 Windows 8.1 啟用     1.在【檔案資源管理器】點【檢視】勾選【隱藏的專案】。     2.複製 C:\Windows\System32\spp\store 資料夾到系統盤以外的地方儲存,並儲存好啟用金鑰。     3.確保儲存的 store\2.0

小米手機Usbstudio安裝解決辦法

src 了解 http 但是 note 學習 info 截圖 重啟   近段時間剛學習完安卓基礎,在一家小公司入職,昨天晚上翻出了幾年前買的小米Note手機,打算用來真機調試Studio,結果運行一直安裝不了。 忘記截圖了,大概頁面差不多這樣。 網上看了好多貼子,

vs警告 當前源代碼跟內置的版本一致解決辦法

.net sdn studio 代碼 style 不一致 post 內置 解決 本文轉載於:http://blog.csdn.net/bull521/article/details/51334464 vs警告 當前源代碼跟內置的版本不一致解決辦法 1.刪除掉 我的文檔/vi

phpstudy 提示安裝VC9 VC14等,MySQL啟動失敗紅色小點點,解決辦法PHP VC版本下載集合

phpStudy啟動失敗時的解決方法 提示缺vc9執行庫 php5.3、5.4和apache都是用vc9編譯,電腦必須安裝vc9執行庫才能執行。 php5.5、5.6是vc11編譯,如用php5.5、5.6必須安裝vc11執行庫。 php7.0、7.1是vc14編譯,如用php7.0

mysql主從同步、資料一致解決辦法

提示報錯: Could not execute Write_rows event on table injured_dataplatform.injurysite; Duplicate entry '6864' for key 'PRIMARY', Error_code: 1062; handl

elasticsearch-6.1.2部署時JDK版本與應用版本一致解決辦法

elasticsearch-6.1.2需要JDK1.8版本,通長會出現與我們應用程式JDK不匹配現象,其實解決方法很簡單,只需要再安裝JDK1.8,環境變數新增ES_JAVA_HOME,指定JDK1.8的安裝路徑,下面具體介紹:安裝jdk1.8,配置環境變數vi /etc/p

Idea編輯器開啟現有專案,JDK版本一致解決辦法

1.首先,選單路徑:File➡️project Structure➡️Project➡️project SDK :選擇匹配的JDK,比如現在idea預設使用的是1.8,則在此選擇1.8 2.其次,選單路徑:File➡️project Structure➡️Modules➡️Dependencies➡️M

Docker Tomcat應用日誌時間和容器時間一致解決辦法

Docker 宿主機、容器、Tomcat應用日誌時間不一致解決辦法 說明: 1.在docker容器和系統時間不一致是因為docker容器的原生時區為0時區,而國內系統為東八區。 2.還有容器中執行的java應用打出的日誌時間和通過date -R

關於Android studio無法建立Java Class和介面問題解決辦法

   小白,入職了一家新公司,重新配置了studio 的工作環境,拉完程式碼,剛開始一切正常,在專案上改改bug啥的都沒問題,後來加需求要新增java類和介面,這就出現問題了,新建的時候,就會報錯:Unable to parse template "Interface" Er

碼雲提交本地倉庫與遠端倉庫一致解決方法

造成這個錯誤是因為我在github上修改了自己的檔案,在上傳本地檔案之前沒有把github上的檔案拉倒本地,意思是本地和遠端的檔案應該合併後才能上傳本地的新檔案具體方法:1、先拉下來,會自動合併的(不用操心)git pull origin master2、再上傳git push -u origin maste

Android studio匯入工程java檔案出現紅色J,gradle外掛與gradle版本一致 解決辦法

     在這個程式碼搬運的時代,合理運用開源優秀程式碼,已經成為了每一個程式設計師必不可少的技能。      我相信大家在匯入第三方module或者第三方工程的時候,都遇到過,開啟的工程JAVA檔案

重新格式化hadoopnamenode導致datanode無法啟動的最簡單解決辦法

導致 roo 報錯信息 不一致 atan 格式化 exceptio nco ava 一般namenode只格式化一次,重新格式化不僅會導致之前的數據都不可用,而且datanode也會無法啟動。在datanode日誌中會有類似如下的報錯信息: java.io.IOExcep

namenode namespaceID與datanode namespaceID 一致導致datanode無法啟動的問題

csdn sdn enter .net oot 改版 more version 進入 在啟動hadoop之後,發現如下datanode何在?????在重新啟動hadoop的時候,發現了問題,如下這說明datanode啟動時出錯了我們跟蹤這個問題,進入到log文件夾下,找到h

HadoopDataNode無法啟動問題解決

java.io.IOException: File  … could only be replicated to 0 nodes, instead of 1。  使用dfsadmin -report報無資料節點,如下: [Hadoop@namenode hadoop]$

hadoop:datanode無法正常啟動解決辦法(轉)

hadoop 多次執行命令: hadoop namenode -format後,發現再次啟動hadoop後,datanode節點無法正常啟動,出現錯誤程式碼如下: could only be replicated to 0 nodes, instead

hadoopdatanode無法啟動

 多日無暇學習使用Hadoop了,今天在練習安裝使用Hive的時候發現檔案無法從本地拷貝到hadoop集群系統,老是報錯,錯誤內容為: java.io.IOException: File  … could only be replicated to 0 nodes, i

hadoop偽分散式DataNode無法啟動

  start-dfs.sh一直啟動不了DataNode,仔細檢查了幾遍配置檔案都沒有發現什麼問題,有format了好幾次也不行。看DataNode的日誌發現這個: java.io.IOException: Incompatible clusterIDs in /usr/