1. 程式人生 > >MapReduce配置遇到的問題和ubuntu 16.04下使用eclipse建立工程時卡死的解決方法

MapReduce配置遇到的問題和ubuntu 16.04下使用eclipse建立工程時卡死的解決方法

1、左邊欄的Project Explorer裡一直不出現DFS Locations.

  發現在把hadoop-eclipse-plugin-2.6.0.jar放到eclipse下的pluins資料夾下並且eclipse -clean之後依舊不顯示,後來找到問題所在。

  在Linux虛擬機器裡換了新的Eclipse,又重新配置MapReduce。

  這次再把hadoop-eclipse-plugin-2.6.0.jar放到eclipse下的pluins資料夾下並且eclipse -clean之後,DFS Locations出現了。

  

2、配置:

  

  

  

 

3、在配置好MapReduce的路徑和常規之後,將埠與hadoop配置的一致,之後能正常顯示hdfs下的檔案了。

  

  不過,新的eclipse出現了一個很大的問題,卡,非常卡,新建一個MapReduce專案卡了一下午,滑鼠變成了圓圈進度條轉了一下午,還關不掉。當我直接去關閉新建專案的視窗時,出現這個問題:

  

  這就很皮,卡的要死還不讓關閉,直接關eclipse也是顯示這個。

  最後百度查了之後,使用了這個命令:

1 kill -9 `ps -ef|grep program_name|awk '{print $2}'`

  將無法關閉的eclipse強制關閉。

  我本來以為是我把虛擬機器的記憶體開小了,或者是eclipse記憶體不夠才卡頓,後來發現在eclipse.ini裡配置了各個執行記憶體的大小後,eclipse啟動變快了,但是並不影響新建專案直接卡死。

  總之在這裡走了很多彎路,試過了各種方法,最後走出一條可行的路,這裡記載下方法,以便以後再遇到類似的問題可以解決:

  首先開啟終端,輸入export SWT_GTK3=0

  

  然後使用終端開啟eclipse。

  在eclipse資料夾下的eclipse.ini檔案中,找到:

1 --launcher.appendVmargs

  在這個程式碼的前面,加上這兩行: 

1 --launcher.GTK_version
2 2

  問題迎刃而解,啟動eclipse正常使用了。

 4.記錄一下dfs location連線的錯誤

  

  這個是連線問題,配置裡出現了問題(沒有把那些引數的值和自己的hadoop配置時修改的值保持一致)

  還有一個是hadoop版本和hadoop-eclipse-plugin-2.6.0.jar這個外掛的版本不匹配,也會報一個錯。