1. 程式人生 > >Ubuntu下 Hadoop 1.2.1 配置安裝

Ubuntu下 Hadoop 1.2.1 配置安裝

本文從我的另外一個部落格轉過來,以後將大資料方面的都放在此部落格。

本文一步步記錄了 Ubuntu 環境安裝Hadoop 1.2.1 ,搭建單機模式以及偽分散式模式,希望對各位和我一樣的菜鳥有所幫助,共同學習進步,歡迎交流。嘗試2.1安裝未遂,由於檔案結構不太一樣缺乏相關資料,也非做運維的,遂放棄改用成熟的hadoop 1.2.1版本。

----------------------------------------單機模式-----------------------------------------

下載:hadoop-1.2.1.tar.gz

解壓:

  1. tar -xzvf hadoop-1.2.1.tar.gz   
轉移:
  1. mv hadoop-1.2.1/ /opt  
進入conf檔案配置環境變數


讓環境變數配置生效source,是source,不是sh,補充下sh和.的區別,參考

  1. source hadoop-env.sh   

檢測是否安裝成功

單機版hadoop安裝成功,測試一下

  1. mkdir input  
  1. cp -R conf input/  

執行wordcount程式並將結果儲存到output

hadoop hadoop-examples-1.2.1.jar 

錯誤: 找不到或無法載入主類 hadoop-examples-1.2.1.jar


hadoop jar hadoop-examples-1.2.1.jar wordcount input output   發現錯誤,粗心害死貓....修改後執行,OK!


單機模式成功, 接下來搭建偽分散式

-------------------------------------------華麗的分割線 偽分散式-----------------------------------------

hadoop目錄下建立以下目錄:

  1. [email protected]:/opt/hadoop-1.2.1$ mkdir tmp  
  2. [email protected]:/opt/hadoop-1.2.1$ mkdir hdfs  
  3. [email protected]:/opt/hadoop-1.2.1$ mkdir hdfs/name  
  4. [email protected]:/opt/hadoop-1.2.1$ mkdir hafs/data  

編輯core-site.xml
  1. <configuration>  
  2.    <property>  
  3.         <name>fs.default.name</name>  
  4.         <value>hdfs://localhost:9000</value>  
  5.     </property>  
  6.     <property>  
  7.         <name>hadoop.tmp.dir</name>  
  8.         <value>/opt/hadoop-1.2.1/tmp</value>  
  9.     </property>  
  10. </configuration>  

hdfs-site.xml:
  1. <configuration>  
  2.   <property>  
  3.         <name>dfs.replication</name>  
  4.         <value>1</value>  
  5.     </property>  
  6.     <property>  
  7.         <name>dfs.name.dir</name>  
  8.         <value>/opt/hadoop-1.2.1/hdfs/name</value>  
  9.     </property>  
  10.     <property>  
  11.         <name>dfs.data.dir</name>  
  12.         <value>/opt/hadoop-1.2.1/hdfs/data</value>  
  13.     </property>  
  14. </configuration>  

mapred-site.xml:
  1. <configuration>  
  2.   <property>  
  3.         <name>mapred.job.tracker</name>  
  4.         <value>localhost:9001</value>  
  5.     </property>  
  6. </configuration>  

格式化HDFS(建議只格式化一次,多次格式化據傳後邊會引起問題,本人沒有嘗試...):
  1. [email protected]:/opt/hadoop-1.2.1/conf$ source hadoop-env.sh   
  2. [email protected]:/opt/hadoop-1.2.1/conf$ hadoop namenode -format  


啟動Hadoop:

執行執行bin/start-all.sh來啟動所有服務,包括namenode,datanode,start-all.sh指令碼用來裝載守護程序

  1. [email protected]:/opt/hadoop-1.2.1/bin$ start-all.sh   


用java的jps命令驗證是否安裝成功:

  1. [email protected]:/opt/hadoop-1.2.1$ jps  


少一個DataNode程序沒有啟動,通過檢視上邊現實的路徑下的日誌發現:


很明顯,data資料夾的許可權不對,修改許可權:

  1. [email protected]:/opt/hadoop-1.2.1/hdfs$ chmod 755 data  

關閉hadoop,重新啟動:

  1. [email protected]:/opt/hadoop-1.2.1/bin$ stop-all.sh  
  1. [email protected]:/opt/hadoop-1.2.1/bin$ start-all.sh   
  1. [email protected]:/opt/hadoop-1.2.1/bin$ jps  


6個程序全部啟動了,此時安裝正常,可以進行Hadoop的相關操作了。

檢查執行狀態:可以通過下面的操作來檢視服務是否正常,在Hadoop中用於監控叢集健康狀態的Web介面

http://localhost:50030/     - Hadoop 管理介面
http://localhost:50060/     - Hadoop Task Tracker 狀態
http://localhost:50070/     - Hadoop DFS 狀態

hadoop的偽分佈模式已經安裝成功,再次在偽分佈模式下執行一下WordCount來感受MapReduce過程:

這時注意程式是在檔案系統dfs執行的,建立的檔案也都基於檔案系統:

首先在dfs中建立input目錄

  1. [email protected]:/opt/hadoop-1.2.1/conf$ hadoop dfs -mkdir input  
  2. Warning: $HADOOP_HOME is deprecated.  

將conf中的檔案拷貝到dfs中的input
  1. [email protected]:/opt/hadoop-1.2.1$ hadoop dfs -copyFromLocal conf/* input  

在偽分散式模式下執行WordCount
  1. [email protected]:/opt/hadoop-1.2.1$ hadoop jar hadoop-examples-1.2.1.jar wordcount input output  


INFO mapred.JobClient:  map 100% reduce 0% 到這裡卡死不動了。

檢查主機名:

  1. [email protected]:/opt/hadoop-1.2.1/conf$ hostname  


修改/etc/hosts檔案:


重新來過:

  1. hadoop dfs -rmr output/  
  2. hadoop jar hadoop-examples-1.2.1.jar wordcount input output  
依舊不起作用...........重啟,再重新來過.................ok!!!

oK!!看見沒有,你成功了!!!!!!

檢測一下輸出資訊:

  1. [email protected]:/opt/hadoop-1.2.1$ hadoop dfs -cat output/*  

ok!!此時偽分散式系統環境已可以正常使用~~~!

YOU GET YOUR FOOT IN THE DOOR!

相關推薦

Ubuntugcc 8.2.0原始碼安裝

gcc 8.2.0 原始碼安裝 下載原始碼並解壓: wget http://ftp.tsukuba.wide.ad.jp/software/gcc/releases/gcc-8.2.0/gcc-8.2.0.tar.gz tar xzvf gcc-8.2.0.ta

kali linux python3.6.2+pip3配置安裝

1.進入python官網下載python原始碼包(使用linux gcc手動編譯原始碼進行安裝) 2.進入虛擬機器VMware環境下的kali linux 注意要聯網,新手儘量選用網路中的NAT模式(如果NAT連不上網的話,看看主機是否開啟了VMware的

Ubuntu Hadoop 1.2.1 配置安裝

本文從我的另外一個部落格轉過來,以後將大資料方面的都放在此部落格。 本文一步步記錄了 Ubuntu 環境安裝Hadoop 1.2.1 ,搭建單機模式以及偽分散式模式,希望對各位和我一樣的菜鳥有所幫助,共同學習進步,歡迎交流。嘗試2.1安裝未遂,由於檔案結構不太一樣缺乏相

測試hadoop-1.2.1是否成功安裝配置

本文說明hadoop安裝之後驗證安裝和配置的方法,hadoop-1.2.1安裝方法參考:hadoop安裝成功之後,要簡單驗證是否成功安裝和配置,在hadoop-1.2.1安裝方法詳解教程中,已經通過jps命令簡單的驗證,這裡通過執行MapReduce作業統計單詞來進一步驗證

centos7 + hadoop 1.2.1基本安裝配置

本節所講的hadoop基本安裝配置主要包含三部分內容: 單機 偽分佈 全分佈 本次實驗環境所用的作業系統為centos7,在進行安裝之前,我們首先要做以下準備工作: 1.建立hadoop使用者 為方便操作我們建立一個名為hadoop的使用者來執行程式,這樣可以使得不同使用者

Ubuntu 16.04安裝Cuda 8.0, Anaconda 4.4.0和TensorFlow 1.2.1

原文連結:http://blog.csdn.net/jinzhuojun/article/details/77140806 Cuda 如果配了Nvidia卡的,可以考慮安裝Cuda,這樣之後可以用GPU加速。之前寫過一篇在Ubuntu 14.04上裝Cuda 7.5的文章(

19-linuxElasticSearch.6.2.1與head、Kibana、X-Pack、SQL、IK、PINYIN外掛的配置安裝

1.安裝elasticsearch-head 1.1 直接使用命令安裝報錯 elasticsearch-6.2.0\bin>elasticsearch-plugin install elasticsearch-head A tool for m

Hadoop-1.2.1/1.0.1 install on Ubuntu

1.hadoop-1.2.1官方包:點我    Hadoop-1.0.1官方包:點我 1.1 解壓到home目錄中的Hadoop下 sudo tar -zxvf 包名 cd hadoop-1.2.1 2.jdk 1.6 點我  &nbs

安裝msyql的情況為php7.2.1安裝mysqli擴充套件

環境為新的阿里雲ECS雲主機,沒有事先編譯安裝mysql,也沒有事先yum安裝mysql。 在編譯安裝php7.2.1完成後,發現mysqli擴充套件沒有安裝。 解決辦法為進入到php7.2.1原始碼包( 實際路徑可能不同): cd /mnt/soft/php-7.2.1/ext

hadoop 1.2.1 安裝步驟 偽分散式

最近在系統的學習hadoop 課程第一步是安裝hadoop1.x,具體安裝步驟如下: 一、系統安裝 本文使用centos6.5安裝,具體安裝步驟省略 二、jdk安裝 下載jdk1.7.0_51解壓,在環境中 設定環境變數: vi /etc/profile,新增如下行: export JAVA_HOME=/u

Hbase-1.2.6的安裝配置

準備工作 1.搭建好的hadoop分散式叢集 2.hbase-1.2.6-bin.tar.gz 安裝 1.解壓hbase-1.2.6-bin.tar.gz完成安裝 #tar -zxvf hbase-1.2.6-bin.tar.gz -C

UbuntuC程式使用libxls-1.2.1庫去讀取excel表格內容

之前日誌說道xlslib庫只能寫excel表格,但是不能讀,但是讀又是經常需要的一個操作,,, 所以有了今天的libxls,這個就是專門用來讀excel表格的。 下載解壓然後編譯安裝 ./configre make sudo make install 由於標頭檔案跟庫

Hive-1.2.1遠端模式的安裝配置

準備工作 1.搭建好的Hadoop分散式系統 2.apache-hive-1.2.1-bin.tar.gz和mysql-connerctor-java-5.1.43-bin.jar 在mysql資料庫上建立hive資料庫用於儲存hive元資料

Hadoop-3.0.0 + spark-2.3.0 +storm-1.2.1安裝心得

因為前段時間比賽用到spark,而實驗室叢集的spark版本還是1.6,帶來了不少麻煩,於是便想著把叢集的Hadoop和spark更新一下版本,另外,因為專案需要,再補裝個storm,一邊日後要用。說句題外話。spark,storm,Hadoop三者取首字母是SSH,這讓我想

Hadoop-1.2.1安裝HBase(偽分佈模式)

我是在hadoop1.2.1版本的基礎上安裝0.98.6版本的hbase。 安裝步驟前面和安裝HBase單機模式是一樣的  (可參考我的另一篇文章:                 http://blog.csdn.net/zhangxbj/article/details/

Hive之 hive-1.2.1 + hadoop 2.7.4 叢集安裝

一、 相關概念Hive Metastore有三種配置方式,分別是:Embedded Metastore Database (Derby) 內嵌模式Local Metastore Server 本地元儲存Remote Metastore Server 遠端元儲存1.1 Meta

Jetty入門(1-2配置Jetty - 獨立運行模式

https monitored log www rtu mon 方式 新版本 demo 本文詳述如何安裝和配置Jetty服務器,主要講述Jetty的獨立運行模式(Standalone)。隨後介紹它的配置選項,以及模塊化的架構。 Jetty有獨立運行模式、嵌入運行模式和J

CentOS 6.5 搭建Hadoop 1.2.1集群

nod otn ip地址 maps shuffle 都是 ber 6.5 inux 記錄在64位CentOS 6.5環境下搭建Hadoop 2.5.2集群的步驟,同時遇到問題的解決辦法,這些記錄都僅供參考! 1、操作系統環境配置 1.1、操作系統環境 主機名 IP地址

Git-2.15.1.2-64-bit安裝

roc 目錄 oss 點擊 新版本 根據 bit log 我們 1、在百度搜索git,然後在git的官網上找到git的下載頁面,如下圖所示。在首頁在Downloads處選擇下載Windows版本,當然您可以根據需求下載其他版本的安裝文件。 2、點擊下載版本便可以直接下載,此

1.1-1.2 python的安裝

edit edits rpm entos n-2 最新版本 fault 之間 實現 python是跨平臺的,centos6以及高版本系統自帶python2.7 linux windowsmac 使用rpm -q python 查詢python包是否安裝python -V(大