1. 程式人生 > >Hive的環境搭建

Hive的環境搭建

Hive是一種資料倉庫,可以使用sql語句去操作haoop中hdfs中的檔案查詢。(本質上是把Hive傳送的sql語句在內部轉換成可以執行的mapreduce程式),(迭代資料無法表達,處理時間較長等缺點)

首先,去官網下載Hive的-bin.tar.gz的壓縮包,然後傳送到虛擬機器上。

              一:解壓:

tar -xzvf apache-hive-2.3.3-bin.tar.gz -C /opt/module

               二:資料夾重新命名:(這一步可以不用配置,配置了方便以後好寫一些)

                三:把 Hive 新增到 PATH 路徑中:

                四:配置hive-env.sh檔案:

                   進入apache-hive-2.3.3-bin/conf目錄:

                                cp hive-default.xml.template hive-site.xml;

                                 在hive-site.xml配置檔案中加上一下內容:

 <property>
     <name>system:java.io.tmpdir</name>
     <value>/tmp</value>
 </property>
 <property>
     <name>system:user.name</name>
     <value>${user.name}</value>
 </property>

        五:在hive-site.xml 檔案中找到下面 4 個屬性, 並修改為所示的值(733).

<name>hive.scratch.dir.permission</name>
 <value>733</value>

       六:找 Hadoop 的 core-site.xml, 增加如下兩個屬性:

<property>
    <name>hadoop.proxyuser.atguigu.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.atguigu.groups</name>
    <value>*</value>
</property>

      七:注意: 上面 atguigu 是你的的 Linux 登入的使用者名稱.

這上面參考的很多老師的資料,由於內部規定,所以就不貼出老師給我們的網址了,但是還是有必要要宣告一下,這個基本上大部分都是截的老師的圖,所以這個屬於老師的勞動成果,我也有必要尊重原創,感謝尚矽谷老師的資料。