1. 程式人生 > >CentOS7下用jdk1.8編譯hadoop-2.7.1全過程詳解

CentOS7下用jdk1.8編譯hadoop-2.7.1全過程詳解

說實話,本人編譯hadoop的過程比較曲折,但收穫也很多,下面系統介紹一下CentOS7下編譯hadoop-2.7.1的全過程吧。

1.工具準備,最靠譜的是hadoop說明文件裡要求具備的那些工具。

解壓之

tar -zxvf hadoop-2.7.1-src.tar.gz

得到hadoop-2.7.1-src資料夾。

進入hadoop-2.7.1-src資料夾,檢視BUILDING.txt

1 2 cd hadoop-2.7.1-src vim BUILDING.txt

可以看到編譯所需的庫或者工具:

包括:

1 2 3 4 5 6 7 JDK1.7+ maven 3.0 or later findbugs 1.3.9 protocolBuffer 2.5.0 cmake 2.6 zlib-devel openssl-devel

除了上面這些,為了不出錯,實際還需要autoconf  automake  gcc等。 

下面開始準備這些工具:

首先使用su命令獲取root許可權,以免受到各種限制

1 2 tar -zxvf jdk-7u79-linux-x64.tar.gz mv jdk1.7.0_79 /opt

然後開啟/etc/profile配置jdk環境變數

1 2 3 4 5 6 7 8 vim /etc/profile 按 i 進入插入模式,在檔案末尾新增 export JAVA_HOME=/opt/jdk1.7.0_79 exportCLASSPATH=.:$JAVA_HOME
/jre/lib/rt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin export JRE_HOME=/opt/jdk1.7.0_79/jre export PATH=$PATH:$JRE_HOME/bin
Hadoop-2.7.1叢集環境搭建

摘自:http://blog.csdn.net/u014039577/article/details/49813531 由於日誌資料量越來越大,資料處理的邏輯越來越複雜,同時還涉及到大量日誌需要批處理,當前的flume-kafka-storm-Hbase-web這一套流程已經不能滿足當前的需求了,所以只

centos7zabbix4.0配置郵件報警及web應用優化

此篇接上篇分散式監控zabbix,詳解如何運用zabbix-web端和配置郵件報警。--------配置郵件報警功能---伺服器上配置---------[[email protected] ~]# yum install mailx -y[[email p

JDK1.7中HashMap死環問題及JDK1.8中對HashMap的優化原始碼

一、JDK1.7中HashMap擴容死鎖問題 我們首先來看一下JDK1.7中put方法的原始碼 我們開啟addEntry方法如下,它會判斷陣列當前容量是否已經超過的閾值,例如假設當前的陣列容量是16,載入因子為0.75,即超過了12,並且剛好要插入的索引處有元素,這時候就需要進行擴容操作,可以看到resi

Linux鞏固記錄(5) hadoop 2.7.4自己編譯代碼並運行MapReduce程序

parser mod pill self add let tokenize org cto 程序代碼為 ~\hadoop-2.7.4\share\hadoop\mapreduce\sources\hadoop-mapreduce-examples-2.7.4-sourc

Linux(centOS7.0)虛擬機環境安裝JDK1.8

rep csdn 完成 安裝jdk 1.7 頂部 安裝包 centos7 tps 閱讀目錄 1.檢查系統是否安裝了JDK 2.準備工作 3.配置環境變量 4.驗證是否安裝成功 回到頂部 1.檢查系統是否安裝了JDK   1.打開SecureCRT終端,輸入:jav

Maven在JDK1.8環境配置之後項目均采jdk1.8 環境運行設置

conf onf mpi fault .so ive efault jdk1 pro 在Maven根目錄中conf文件夾下setting.xml文件中加入如下代碼: <profile> <id>jdk-1.8</id> <ac

VirtualBox+Centos7+(jdk1.7.0_71+Hadoop-2.6.0)/(jdk1.10+Hadoop-2.9.1)搭建完全分散式叢集平臺

VirtualBox+Centos7+(jdk1.7.0_71+Hadoop-2.6.0)/(jdk1.10+Hadoop-2.9.1)搭建完全分散式叢集平臺 本文有很多是自定義的,可以根據自己的實際情況和需求修改,儘量會用紅色標註出來,當然按照步驟,一步一步應該也能成功,不

ubuntu 14.04 單機安裝 hadoop 2.7.2+scala 2.11.8+spark 2.0偽分散式教程

一.安裝java 將java下載後手動解壓到/home/che資料夾下(可採用右擊壓縮包,單擊“提取”) 在終端(可用Ctrl+Alt+T快捷鍵開啟)中輸入: sudo gedit /etc/profile 在開啟的文字中新增: expor

Centos 6.5 X64 環境編譯 hadoop 2.6.0 --已驗證

詳細參照原始碼路徑下的BUILDING.txt檔案 Centos 6.5 x64 hadoop 2.6.0 jdk 1.7 protobuf-2.5.0 maven-3.0.5 set environment export JAVA_HOME=/home/linux/jdk export

centos7核心原始碼單獨編譯安裝KVM模組

準備:linux系統版本:CentOS-7-x86_64-DVD-1708   (其他系統也可以,核心版本對應就行)        核心版本3.10.0-693.el7.x86_64 1、官網獲取相應版本的核心原始碼,連結:http://vault.centos.org/。

Hadoop2.2.0偽分散式環境搭建(附:64位編譯Hadoop-2.2.0過程)

Hadoop2.2.0偽分散式環境搭建: 寫在前面:Hadoop2.2.0預設是支援32位的OS,如果想要在64位OS下執行的話,可以通過在64位OS下面編譯Hadoop2.2.0來實現,編譯的操作步驟在最後面呈現。 1: 操作:下載軟體; 檔案:Hadoop-2.2.0.

Windows編譯hadoop 2.x Hadoop-eclipse-plugin外掛

由於使用的Hadoop版本是2.7.3,沒有相應的Eclipse開發外掛,就只好自己編譯一個。 編譯環境: 2.1 JDK配置 2.2安裝Eclipse,只需按正常開發配置好,能執行HelloWorld即可 2.3配置Ant,新增%ANT_HOME%\b

CentOS7安裝jdk1.7

8.0 tools root vim exp nod run 3.4 -1 1、卸載自帶OPENJDK 用 java -version 命令查看當前jdk版本信息 #java -version 用rpm -qa | grep java 命令查詢操作系統自身安