1. 程式人生 > >CDH+Kylin三部曲之二:部署和設定

CDH+Kylin三部曲之二:部署和設定

### 歡迎訪問我的GitHub [https://github.com/zq2599/blog_demos](https://github.com/zq2599/blog_demos) 內容:所有原創文章分類彙總及配套原始碼,涉及Java、Docker、Kubernetes、DevOPS等; ### 本篇概覽 本文是《CDH+Kylin三部曲》系列的第二篇,上一篇[《CDH+Kylin三部曲之一:準備工作》](https://blog.csdn.net/boling_cavalry/article/details/105449630)已將所需的機器和檔案準備完畢,可以部署CDH和Kylin了; ### 執行ansible指令碼部署CDH和Kylin(ansible電腦) 1. 進入ansible電腦的~/playbooks目錄,經過上一篇的準備工作,該目錄下應該是下圖這些內容: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081215059-1550196718.png) 2. 檢查ansible遠端操作CDH伺服器是否正常,執行命令ansible deskmini -a "free -m",正常情況下顯示CDH伺服器的記憶體資訊,如下圖: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081215598-747449568.png) 3. 執行命令開始部署:ansible-playbook cm6-cdh5-kylin264-single-install.yml 4. 整個部署過程涉及線上安裝、傳輸大檔案等耗時的操作,請耐心等待(半小時左右),如果部署期間出錯退出(例如網路問題),只需重複執行上述命令即可,ansible保證了操作的冪等性; 5. 部署成功如下圖所示: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081216047-44423317.png) ### 重啟CDH伺服器 由於修改了selinux和swap的設定,需要重啟作業系統才能生效,因此請重啟CDH伺服器; ### 執行ansible指令碼啟動CDH服務(ansible電腦) 1. 等待CDH伺服器重啟成功; 2. 登入ansible電腦,進入~/playbooks目錄; 3. 執行初始化資料庫和啟動CDH的指令碼:ansible-playbook cdh-single-start.yml 4. 啟動完成輸出如下資訊: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081216511-541775544.png) 5. ssh登入CDH伺服器,執行此命令觀察CDH服務的啟動情況:tail -f /var/log/cloudera-scm-server/cloudera-scm-server.log,看到下圖紅框中的內容時,表示啟動完成,可以用瀏覽器登入了: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081218433-463804209.png) ### 設定(瀏覽器操作) 現在CDH服務已經啟動了,可以通過瀏覽器來操作: 1. 瀏覽器訪問:http://192.168.50.134:7180 ,如下圖,賬號密碼都是admin: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081219333-1719231991.png) 2. 一路next,在選擇版本頁面選擇60天體驗版: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081219638-611939484.png) 3. 選擇主機頁面可見CDH伺服器(deskmini): ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081219894-1144042191.png) 4. 在選擇CDH版本的頁面,請選擇下圖紅框中的5.16.2-1: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081220252-68198339.png) 5. 進入安裝Parcel的頁面,由於提前上傳了離線parcle包,因此下載進度瞬間變成百分之百,此時請等待分配、解壓、啟用的完成: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081220623-569863859.png) 6. 接下來有一些推薦操作,這裡選擇如下圖紅框,即可跳過: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081220949-1862949992.png) 7. 接下來是選擇服務的頁面,我選擇了自定義服務,然後選擇了HBase、HDFS、Hive、Hue、Oozie、Spark、YARN、Zookeeper這八項,可以滿足執行Kylin的需要: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081221619-89059754.png) 8. 在選擇主機的頁面,都選擇CDH伺服器: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081222247-552209982.png) 9. 接下來是資料庫設定的頁面,您填寫的內容必須與下圖保持一致,即主機名為localhost,Hive的資料庫、使用者、密碼都是hive,Activity Monitor的資料庫、使用者、密碼都是amon,Reports Manager的資料庫、使用者、密碼都是rman,Oozie Server的資料庫、使用者、密碼都是oozie,Hue的資料庫、使用者、密碼都是hue,這些內容在ansible指令碼中已經固定了,此處的填寫必須保持一致: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081222580-1983134148.png) 10. 在設定引數的頁面,請按照您的硬碟實際情況設定,我這裡/home目錄下空間充足,因此儲存位置都改為/home目錄下: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081223012-675487992.png) 11. 等待服務啟動: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081223412-925503890.png) 12. 各服務啟動完成: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081223732-1996307253.png) ### HDFS設定 1. 如下圖紅框所示,HDFS服務存在問題: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081224085-1001374859.png) 2. 點選上圖中紅色感嘆號可見問題詳情,如下圖,是常見的副本問題: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081224505-2015779800.png) 3. 操作如下圖,在HDFS的引數設定頁面,將dfs.replication的值設定為1(只有一個數據節點): ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081224789-35869421.png) 4. 經過上述設定,副本數已經調整為1,但是已有檔案的副本數還沒有同步,需要重新做設定,SSH登入到CDH伺服器上; 5. 執行命令su - hdfs切換到hdfs賬號,再執行以下命令即可完成副本數設定: ```shell hadoop fs -setrep -R 1 / ``` 6. 回到網頁,重啟HDFS服務,如下圖: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081225042-1402501166.png) 7. 重啟後HDFS服務正常: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081225343-2140536724.png) ### YARN設定 預設的YARN引數是非常保守的,需要做一些設定才能順利執行Spark任務: 1. 進入YARN管理頁; 2. 如下圖所示,檢查引數yarn.nodemanager.resource.cpu-vcores的值,該值必須大於1,否則提交Spark任務後YARN不分配資源執行任務,(如果您的CDH伺服器是虛擬機器,當CPU只有單核時,則此引數就會被設定為1,解決辦法是先提升虛擬機器CPU核數,再來修改此引數): ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081225599-147483258.png) 3. yarn.scheduler.minimum-allocation-mb:單個容器可申請的最小記憶體,我這裡設定為1G 4. yarn.scheduler.maximum-allocation-mb:單個容器可申請的最大記憶體,我這裡設定為8G 5. yarn.nodemanager.resource.memory-mb:節點最大可用記憶體,我這裡設定為8G 6. 上述三個引數的值,是基於我的CDH伺服器有32G記憶體的背景,請您按照自己硬體資源自行調整; 7. 設定完畢後重啟YARN服務,操作如下圖所示: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081225975-577117617.png) ### Spark設定(CDH伺服器) 需要在Spark環境準備一個目錄以及相關的jar,否則Kylin啟動會報錯(提示spark not found, set SPARK_HOME, or run bin/download-spark.sh),以root身份SSH登入CDH伺服器,執行以下命令: ```shell mkdir $SPARK_HOME/jars \ && cp $SPARK_HOME/assembly/lib/*.jar $SPARK_HOME/jars/ \ && chmod -R 777 $SPARK_HOME/jars ``` ### 啟動Kylin(CDH伺服器) 1. SSH登入CDH伺服器,執行su - hdfs切換到hdfs賬號; 2. 按照官方推薦,先執行檢查環境的命令:$KYLIN_HOME/bin/check-env.sh 3. 檢查通過的話控制檯輸出如下: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081226321-222806027.png) 4. 啟動Kylin:$KYLIN_HOME/bin/kylin.sh start 5. 控制檯輸出以下內容說明啟動Kylin成功: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081227653-2084511004.png) ### 登入Kylin 1. 瀏覽器訪問:http://192.168.50.134:7070/kylin,如下圖,賬號ADMIN,密碼KYLIN(賬號和密碼都是大寫): ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081228363-1443814474.png) 2. 登入成功,可以使用了: ![在這裡插入圖片描述](https://img2020.cnblogs.com/other/485422/202010/485422-20201023081228613-322878806.png) 至此,CDH和Kylin的部署、設定、啟動都已完成,Kylin已經可用了,在下一篇文章中,我們就在此環境執行Kylin的官方demo,體驗Kylin; ### 歡迎關注公眾號:程式設計師欣宸 > 微信搜尋「程式設計師欣宸」,我是欣宸,期待與您一同暢遊Java世界... [https://github.com/zq2599/blog_demos](https://github.com/zq2599/blo