1. 程式人生 > >Hadoop的學習前奏(一)——在Linux上安裝與配置Hadoop

Hadoop的學習前奏(一)——在Linux上安裝與配置Hadoop

前言

  筆者目前是在做Android開發,又是在一個資訊保安的公司。公司的主要是做在虛擬機器上執行的產品,又涉獵雲端計算,心想是要去搞一下雲端計算。自我感覺移動網際網路 + 雲端計算 + 資訊保安會是一個很好的方向,於是投身其中。因為是Java出身,所以自然而然選擇了Hadoop。

筆者系統環境

Linux:  CentOS release 6.5 (Final)
JDK:    java version "1.7.0_75"
        OpenJDK Runtime Environment (rhel-2.5.4.0.el6_6-x86_64 u75-b13)
        OpenJDK 64-Bit Server VM (build 24.75-b04, mixed mode)
SSH:    OpenSSH_5.3p1, OpenSSL 1.0.1e-fips 11 Feb 2013

Hadoop: hadoop-1.2.1

環境搭建

1.安裝JDK

  關於JDK的安裝,不是本部落格的討論範圍,大家可以自行百度或是Google進行安裝。

2.配置SSH免密碼登入

  在你的機器可以聯網的前提下進行如下操作

  (1) # yum install openssh-server # 安裝SSH

  (2) # yum -y install openssh-clients

      # 如果你安裝SSh完成之後,執行ssh出現系統無法識別ssh的話,需要另外安裝openssh-clients

  (3) # mkdir -p ~/.ssh # 如果你在安裝完SSH後,這些目錄都未自動生成,請自行建立

  (4) # ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

      ssh-keygen 表示生成金鑰

      -t 表示指定生成的金鑰型別

      dsa 是dsa金鑰認證的意思,即金鑰型別

      -P 提供密語

      -f 指定生成的金鑰檔案

  (5) # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

      # 將公鑰加到用於認證的公鑰檔案中,authorized_keys是用於認證的公鑰檔案

  (6) # ssh -version

      # 驗證SSH是否安裝完成,正確安裝會有類似如下的結果:

      

  (7)至此基本的配置已經差不多了,不過還是不能夠進行免密碼登入。最後一步就是要配置兩個東西的許可權屬性:

     $ chmod 700 ~/.ssh
     $ chmod 600 ~/.ssh/authorized_keys

     這兩步是必要的,不然你可能就不能免密碼登入了。

  (8)$ ssh localhost # 驗證

3.安裝並執行Hadoop

  (1)下載hadoop-x.x.x

     解壓到指定目錄,例如/home/u

  (2)修改配置檔案的配置資訊

      # vim ~/hadoop-1.2.1/conf/core-site.xml

      

      # vim ~/hadoop-1.2.1/conf/hdfs-site.xml

      

      # vim ~/hadoop-1.2.1/conf/mapred-site.xml

      

  (3) # ~/hadoop-1.2.1/bin/hadoop namenode -format # 格式化檔案系統

  (4) # ~/hadoop-1.2.1/bin/start-all.sh # 啟動所有程序

  (5)驗證Hadoop是否安裝成功

     進入瀏覽器,分別輸入以下網址進行驗證:

     http://localhost:50030 (MapReduce的Web頁面)

     http://localhost:50070 (HDFS的Web頁面)

     驗證示例:

     MapReduce的Web頁面

     

     HDFS的Web頁面

     

遇到的問題

1.啟動Hadoop時,總是說JAVA_HOME未配置

  

  當我使用教程中的shell命令在hadoop資料夾中執行bin/start-all.sh時,老是報JAVA_HOME is not set.

  可是我在shell裡也設定了JAVA_HOME了啊,而且我去檢視系統中的JAVA_HOME也是OK的,如下:

  

  這一點讓我很是奇怪,如是我找到一篇論壇,裡面的情況和我的有一些類似,不過他的一句話讓我察覺到自己的搞錯了一個地方,那就是上面提示的JAVA_HOME其實是要在配置檔案中去設定的。

  執行vim ~/hadoop-1.2.1/conf/hadoop-env.sh,這個目錄請根據自己你的路徑來寫,修改如下:

  

2.-bash: bin/hadoop: Permission denied

這裡如果你是在Linux下直接從網路上下載的話,應該會沒什麼事情。不過,如果你跟筆者一樣,是使用WinSCP上傳到Linux上的話,這裡可以會有一個小地方需要修改。不然會報這樣一個錯誤:

  

  可以看到這個錯誤是在我們執行hadoop這個可執行檔案時報的錯誤,那我們就只要對這個檔案進行許可權的修改就可以了。因為後面的還會用到一些其他的可執行檔案,那麼這裡我就對所有的檔案都做了一個可執行許可權的修改(當然,這裡是因為我們是在學習和測試階段,為了避免麻煩,偷了個懶。如果要從安全的角度來考慮,這裡我們是不能這樣做的)。

3.Hadoop SafeMode: ON - HDFS unavailable

  當然我們把之前的一些配置資訊都搞了的時候,這時可能還會有一個問題,就是我們HDFS的Web頁面無法訪問。

  

  這個問題其實是我們之前的一些錯誤配置遺留下來的問題。我們之前說過一個執行檔案的許可權問題,我們在操作格式化HDFS時,這個正是這個許可權的問題在干擾。如是我把之前啟動的程序都stop掉。然後重新format就OK了。

  格式化HDFS正確時的提示資訊如下: