1. 程式人生 > >hadoop啟動錯誤 找不到路由 解決方法

hadoop啟動錯誤 找不到路由 解決方法

hadoop啟動過程中遇到下面的問題:


2012-07-04 18:43:20,763 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting DataNode
STARTUP_MSG:   host = slave1/192.168.18.87
STARTUP_MSG:   args = []
STARTUP_MSG:   version = 0.20.2
STARTUP_MSG:   build = 
https://svn.apache.org/repos/asf ... ranches/branch-0.20 -r 911707; compiled by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010 ************************************************************/ 2012-07-04 18:43:22,468 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 0 time(s). 2012-07-04 18:43:23,468 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 1 time(s).
2012-07-04 18:43:24,469 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 2 time(s). 2012-07-04 18:43:25,470 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 3 time(s). 2012-07-04 18:43:26,471 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 4 time(s).
2012-07-04 18:43:27,472 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 5 time(s). 2012-07-04 18:43:28,473 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 6 time(s). 2012-07-04 18:43:29,474 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 7 time(s). 2012-07-04 18:43:30,475 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 8 time(s). 2012-07-04 18:43:31,475 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 9 time(s). 2012-07-04 18:43:31,479 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Call to /192.168.18.218:9000 failed on local exception: java.net.NoRouteToHostException: 沒有到主機的路由 at org.apache.hadoop.ipc.Client.wrapException(Client.java:775) at org.apache.hadoop.ipc.Client.call(Client.java:743) at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220) at $Proxy4.getProtocolVersion(Unknown Source) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:346) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:383) at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:314) at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:291) at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:269) at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:216) at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1283) at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1238) at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1246) at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1368) Caused by: java.net.NoRouteToHostException: 沒有到主機的路由 at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:701)
複製程式碼

NameNode啟動start-all.sh時出現上述錯誤,解決辦法如下:

(1)從namenode主機ping其它主機名(如:ping slave1),如果ping不通,原因可能是namenode節點的/etc/hosts配置錯誤

(2)從datanode主機ping namenode主機名,如果ping不通,原因可能是datenode節點的/etc/hosts配置的配置錯誤

(3)檢視namenode主機的9000(具體根據core-site.xml中的fs.default.name節點配置)埠,是否開啟,如果已開啟(如下圖所示),原因可能是防火牆開啟,解決辦法:關閉namenode和datanode主機的防火牆,或者設定防火牆開啟指定埠

[[email protected] swxing]# netstat -nap | grep 9000
tcp        0      0 ::ffff:192.168.18.218:9000  :::*                        LISTEN      4662/java           
tcp        0      0 ::ffff:192.168.18.218:46116 ::ffff:192.168.18.218:9000  ESTABLISHED 4859/java           
tcp        0      0 ::ffff:192.168.18.218:9000  ::ffff:192.168.18.87:36794  ESTABLISHED 4662/java           
tcp        0      0 ::ffff:192.168.18.218:9000  ::ffff:192.168.18.218:46116 ESTABLISHED 4662/java      
[[email protected] swxing]# service iptables stop

(4)格式化硬碟(hadoop namenode -format)後啟動namenode(start-all.sh)

以上操作命令是在centos6.1中的操作命令,其它linux系統的操作命令可能有些不一樣,讀者根據自己的系統來定義操作,本文只提供一個思路。

相關推薦

hadoop啟動錯誤 路由 解決方法

hadoop啟動過程中遇到下面的問題: 2012-07-04 18:43:20,763 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG: /***********************

spring boot maven 打包提示 “程式包到” 解決方法

再用springboot maven打包的時候會碰到 找不到“程式包找不到” 的問題。解決放下如下 修改父pom.xml配置檔案。 由原來的 <build> <plugins> <plugin>

iview 按需引入vue專案報iview解決方法

//import iView from ‘iview’; //import ‘iview/dist/styles/iview.css’; //Vue.use(iView); 接下來,在需要用的vue檔案下,直接引入需要的iview元件就可以了 import V

Centos7 安裝vmware tool 共享檔案解決方法

 解決方法:yum -y install kernel-devel   重新執行: ./vmware-install.pl 2、安裝過程出現錯誤:vmhgfs-only/page.c:1625:23: error: too many arguments to fu

Spark jar包解決方法

今天在使用Spark中DataFrame往Mysql中插入RDD,但是一直報出以下的異常次資訊: [[email protected] ~]$ bin/spark-submit --master local[2] --jars lib/mysql-conne

hadoop叢集NameNode起解決方法

1、關掉hadoop叢集 2、進入主節點/home/hadoop/hadoop-2.6.0/dfs/name/current,刪掉VERSION,從節點也是 3、格式化NameNode : hadoo

dubbo.xsd檔案 解決方法

使用dubbo時遇到問題 org.xml.sax.SAXParseException: schema_reference.4: Failed to read schema document 'http://code.alibabatech.com/schema/dub

hadoop3.1.1下MapReduce操作出現錯誤: 到或無法載入主類org.apache.hadoop.mapreduce.v2.app.MRAppMaster 問題解決方法

Hadoop3.1.1下成功安裝後,進行MapReduce操作出現錯誤: 錯誤: 找不到或無法載入主類org.apache.hadoop.mapreduce.v2.app.MRAppMaster 解決辦法: 在命令列下輸入如下命令,並將返回的地址複製。 hadoop c

【Spring MVC】 錯誤: 到或無法載入主類 解決方法

【Spring MVC】 錯誤: 找不到或無法載入主類 解決方法   最近在學習Spring,在學習SpringMVC過程中,將web.xml、Dispatcher-servlet.xml、applicationContext.xml等配置完成之後,卻不懂如何部署專案到to

mac os 下建立 android avd 後啟動到 avd ini 檔案 問題解決方法

在 Mac OS 上建立了android虛擬機器(avd)後,啟動的時候報找不到adv對應的ini檔案 PANIC: Could not open: ~/.android/avd/android4.0.3.ini 此檔案是建立虛擬機器的時候生成的,可以先查詢此檔案是否在別的位置: sudo find

Nginx啟動提示到libpcre.so.1解決方法

啟動nginx提示:error while loading shared libraries: libpcre.so.1: cannot open shared object file: No such file or directory,意思是找不到libpcre.s

ubuntu安裝pycharm後在快速啟動啟動提示到jdk的解決方法

由於學習python的需要,在電腦上安裝了pycharm社群版,按照說明進入pycharm的bin資料夾之後,執行"./pycharm.sh"指令碼執行pycharm.到此時都是正常的. 可是當再啟動欄啟動pycharm的時候系統卻提示"no JDK found",如下圖所示 倒騰一會後

SQL2005在新建複製 到儲存過程 錯誤:2812 的解決方法

標題: 新建釋出嚮導 ------------------------------ SQL Server 無法建立釋出“XXXXX釋出”。 ------------------------------ 其他資訊: 執行 Transact-SQL 語句或批處理時發生了異常。

Windows能在本地計算機啟動OracleDBConsoleorcl.錯誤程式碼2的解決方法

    現象:   Windows 不能在 本地計算機 啟動 OracleDBConsoleorcl。有關更多資訊,查閱系統事件日誌。如果這是非 Microsoft 服務,請與服務廠商聯絡,並參考特定服務錯誤程式碼 2。       系統事件日誌 報錯誤"Agent pro

錯誤: 到或無法載入主類 org.apache.hadoop.hdfs.server.namenode.NameNode 問題解決

問題描述:   執行指令 在hadoop安裝路徑下執行  bin/hdfs namenode -format 時,出現“錯誤:找不到或無法載入主類org.apache.hadoop.hdfs.server.namenode.NameNode" 問題分析:   此問題是由於在

Eclipse 錯誤: 到或無法載入主類 解決方法

JAVA_HOME、Path、CLASSPATH都配置正確的情況下, Eclipse任出現    “錯誤: 找不到或無法載入主類” 解決方法:         不妨嘗試新建一個workSpace2,以該workSpace開啟,執行程式,則不再出現“錯誤: 找不到或無法載入

編譯報錯+解決方法錯誤: 到符號

【0】README 1)本文主要解決“錯誤,找不到符號” 【1】 console error info 1)error :  E:\bench-cluster\mybatis_in_action_e

解決springboot項目打jar包運行時到main方法方案

img http 打包 pri 方法 報錯 maven打包 boot 沒有 最近用maven打包springboot項目時,將打好的jar包運行,報錯:找不在main主清單 原來是項目的pom.xml中沒有指定項目啟動的main方法導致,解決方法如下 在pom.xml中加入

eclipse 運行錯誤:在類XXX中到 main 方法, 請將 main 方法定義為: public static void main(String[] args) 否則 JavaFX 應用程序類必須擴展javafx.application.Application

分享圖片 java stat 報錯 es2017 pub .... img nbsp 新建了一個類Hello: 代碼: 第一次運行報錯: 點擊關閉該類的界面時出現: 點擊是,然後再次打開,可以正確執行,結果為: 這是為什麽.... ec

錯誤: 在類 Main 中到 main 方法, 請將 main 方法定義為: public static void main(String[] args) 否則 JavaFX 應用程序類必須擴展javafx.application.Application

導包 javafx 其他 就是 ring del args bsp pub 錯誤: 在類 Main 中找不到 main 方法, 請將 main 方法定義為: public static void main(String[] args)否則 JavaFX 應用程序類必須擴展