1. 程式人生 > >Mac Hadoop的安裝與配置

Mac Hadoop的安裝與配置

這裡介紹Hadoop在mac下的安裝與配置。

安裝及配置Hadoop

首先安裝Hadoop

$ brew install Hadoop

配置ssh免密碼登入
用dsa金鑰認證來生成一對公鑰和私鑰:

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

將生成的公鑰加入到用於認證的公鑰檔案中:

$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

接下來測試一下是否配置成功

$ ssh localhost

如果遇到connection refused之類的錯誤,檢查一下mac是否開啟遠端登入功能,在系統偏好設定中可以設定。

配置Hadoop檔案

core-site.xml檔案配置如下:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>

hdfs-site.xml配置如下;
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>

mapred-site.xml配置如下:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>

yarn-site.xml配置如下:

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

以上過程需要注意的是如果mapred-site.xml檔案不存在,需要自己建立(可以複製一下mapred-site.xml.template檔案再進行修改)

執行Hadoop樣例程式

  1. 進入Hadoop的目錄,以mac系統為例目錄為
    /usr/local/Cellar/hadoop/2.7.2/libexec
    然後格式化檔案系統:
    $ bin/hdfs namenode -format
  2. 啟動NameNode和DataNode的守護程序。
    $ sbin/start-dfs.sh
  3. 啟動ResourceManager和NodeManager的守護程序。
    $ sbin/start-yarn.sh
  4. 訪問localhost:50070和localhost:8088測試是否正常。
  5. 建立hdfs目錄:
    $ bin/hdfs dfs -mkdir -p /user/robin/input
  6. 拷貝一些檔案到input目錄:
    $ bin/hdfs dfs -put etc/hadoop input
  7. 執行樣例: (下面命令中的hadoop版本號是2.7.2,根據你自己的hadoop版本修改版本號)
    $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'
  8. 在localhost:50070中的Utilities標籤下找到/user/robin目錄,下載part-r-00000檔案,可以看到其中內容如下所示:
4   dfs.class
4   dfs.audit.logger
3   dfs.server.namenode.
2   dfs.period
2   dfs.audit.log.maxfilesize
2   dfs.audit.log.maxbackupindex
1   dfsmetrics.log
1   dfsadmin
1   dfs.servers
1   dfs.replication
1   dfs.file

相關推薦

Hadoop偽分佈環境搭建——Hadoop安裝配置

    我們需要從官網下載hadoop  點選開啟連結  我自己下載的是最新的版本 hadoop 2.7.1。     下載完成後就開始安裝了:     使用  sudo tar xzf hadoo

hadoop安裝配置()

此步驟是在虛擬機器上所做的實驗 第一步:關閉防火牆 首先進入特權使用者模式, service iptables stop :關閉防火牆 chkconfig iptables off :關閉開機啟動防火牆 service iptables status :檢視防

hadoop安裝配置

安裝並使用多種方法配置Hadoop。 準備 建立Hadoop使用者 建立新使用者 sudo useradd –m hadoop –s /bin/bash 設定密碼 sudo passwd h

在Ubuntu進行Hadoop安裝配置

騰訊雲 ubuntu 16.04.1 LTS 64位 Linux操作 修改root的密碼  sudo passwd root 將使用者登出 logout 關閉防火牆 ufw disable 解除安裝iptables元件 apt-get remove ipta

maven for mac安裝配置

1、下載 Maven(下載地址:https://maven.apache.org/download.cgi), 並解壓到某個目錄。例如/Users/rainy/apache-maven-3.3.3 2、開啟Terminal,輸入以下命令,設定Maven cla

工欲善其事,必先利其器之—MAC安裝配置emacs

安裝應用 mac os下安裝emacs有如下方式 * 通過homebrew安裝 brew install emacs --with-cocoa sudo port install emacs-app 注:這裡建議於第三種方式安裝,根據以

Mac Hadoop安裝配置

這裡介紹Hadoop在mac下的安裝與配置。 安裝及配置Hadoop 首先安裝Hadoop $ brew install Hadoop 配置ssh免密碼登入 用dsa金鑰認證來生成一對公鑰和私鑰: $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 將生成的公鑰加入到用於認證

Hadoop 之 Hive 安裝配置

file 接下來 重新 軟件 driver name arc /etc ted Hive 作為基於Hadoop的一個數據倉庫工具,可將sql語句轉換為MapReduce任務進行運行。 通過類SQL語句快速實現簡單的MapReduce統計,不用開發專門的MapReduce應用

mac下Apache的brew安裝配置

本地域名 upgrading 文章 ati 代碼 with localhost 3.4 ack mac 系統macOS High Sierra版本 10.13.4 mac系統自帶apache,配置文件在/etc/apache2/httpd.conf 雖然我安裝了php72命

Mac osx 10.10系統下Navicat for MySQL的安裝配置

在打算用workbench之前就被同學安利了navicat,欲罷不能 之前win上用的很舒爽,現在mac上剛剛裝好,總結一下資源和步驟 =====================================================================

Hadoop之Hive的安裝配置

Hive目前底層還是用MapReduce,以後可能會用Spark,Tez。Hive差不多是一個查詢介面,你的SQL語句還是會翻譯成MapReduce任務的,你用explain就可以看到這些任務的執行計劃。下面介紹下hive的基礎安裝過程以及簡單的使用。 環境資訊: 虛擬機器數量:

Hadoop叢集的安裝配置

一.準備Linux環境(虛擬機器)   1.先將虛擬機器的網路模式選為NAT   2.修改主機名   vi /etc/sysconfig/network       NETWORKING=yes HOSTNAME=hdp-node-01   

MAC下使用VS Code安裝配置Java環境Maven環境

繼Sublime Text這種輕量級IDE火了以後,宇宙最強大的IDE開發團隊(Microsoft)推出了VS Code. 這對於使用MacBook這種低儲存筆記本的開發人員來說簡直是福音~! 所以針對如何在Mac上配置Spring+Maven,網上好像沒有類似的說明,這一節首先我們來配

Hadoop--1.虛擬機器安裝配置

1.第一臺虛擬機器(master)    上了兩節Hadoop課,老師攛掇我們自己課下搞幾個虛擬機器建個叢集試試。    首先就是安裝vmware軟體,我將安裝包和安裝教程部落格都已經存入了d盤安裝包對應虛擬機器目錄下    安

Mac下brew安裝配置mysql

一、開啟mac控制檯 $ brew install mysql 二、啟動mysql服務 $ mysql.server start 三、初始化mysql配置 1 rainMacBook-Pro:~ comet$ mysql_secure_installation 2 3 Securing t

(超詳細)從零開始安裝配置hadoop完全分散式環境

強調!!! 使用者名稱稱要相同,否則可能出現稀奇古怪的錯誤!!!(我就因為這個問題,在後面快裝完的時候不得不從頭再來) 原因:Hadoop要求所有機器上Hadoop的部署目錄結構要求相同(因為在啟動時按與主節點相同的目錄啟動其它任務節點),並且都有一

Hadoop 和 Hbase 的安裝配置 (單機模式)

(一定要看最後我趟過的坑,如果安裝過程有問題,可參考最後我列出的問題及解決方法) 下載Hadoop安裝包 這裡安裝版本:hadoop-1.0.4.tar.gz 在安裝Hadoop之前,伺服器上一定要有安裝的jdk jdk安裝方式之一:在官網上下載Linux下的rpm

Linux下基於Hadoop的大資料環境搭建步驟詳解(Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等安裝配置

Linux下基於Hadoop的大資料環境搭建步驟詳解(Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等安裝與配置) 系統說明 搭建步驟詳述 一、節點基礎配置 二、H

Ubuntu16.04 下 hadoop安裝配置(偽分散式環境)

export JAVA_HOME=/usr/lib/jvm/java export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH

Hadoop 2.7.3安裝配置

一、JDK的安裝與配置 (1)、自行前往Oracle官網下載JDK (2)、下載後解壓到相關路徑,配置環境變數: vi /etc/profile 新增如下配置 export JAVA_HOME=/usr/lib/jvm/java-8-oracle