hadoop 叢集安裝與部署(大資料系列)
什麼是大資料
基本概念
《資料處理》
在網際網路技術發展到現今階段,大量日常、工作等事務產生的資料都已經資訊化,人類產生的資料量相比以前有了爆炸式的增長,以前的傳統的資料處理技術已經無法勝任,需求催生技術,一套用來處理海量資料的軟體工具應運而生,這就是大資料!
處理海量資料的核心技術:
海量資料儲存:分散式
海量資料運算:分散式
這些核心技術的實現是不需要使用者從零開始造輪子的
儲存和運算,都已經有大量的成熟的框架來用
儲存框架:
HDFS——分散式檔案儲存系統(HADOOP中的儲存框架)
HBASE——分散式資料庫系統
KAFKA——分散式訊息快取系統(實時流式資料處理場景中應用廣泛)
運算框架:(要解決的核心問題就是幫使用者將處理邏輯在很多機器上並行)
MAPREDUCE—— 離線批處理/HADOOP中的運算框架
SPARK —— 離線批處理/實時流式計算
STORM —— 實時流式計算
輔助類的工具(解放大資料工程師的一些繁瑣工作):
HIVE —— 資料倉庫工具:可以接收sql,翻譯成mapreduce或者spark程式執行
FLUME——資料採集
SQOOP——資料遷移
ELASTIC SEARCH —— 分散式的搜尋引擎
…
換個角度說,大資料是:
1、有海量的資料
2、有對海量資料進行挖掘的需求
3、有對海量資料進行挖掘的軟體工具(hadoop、spark、storm、flink、tez、impala…)
大資料在現實生活中的具體應用
資料處理的最典型應用:公司的產品運營情況分析
電商推薦系統:基於海量的瀏覽行為、購物行為資料,進行大量的演算法模型的運算,得出各類推薦結論,以供電商網站頁面來為使用者進行商品推薦
精準廣告推送系統:基於海量的網際網路使用者的各類資料,統計分析,進行使用者畫像(得到使用者的各種屬性標籤),然後可以為廣告主進行有針對性的精準的廣告投放
什麼是hadoop
hadoop中有3個核心元件:
分散式檔案系統:HDFS —— 實現將檔案分散式儲存在很多的伺服器上
分散式運算程式設計框架:MAPREDUCE —— 實現在很多機器上分散式並行運算
分散式資源排程平臺:YARN —— 幫使用者排程大量的mapreduce程式,併合理分配運算資源
hdfs整體執行機制
hdfs:分散式檔案系統
hdfs有著檔案系統共同的特徵:
1、有目錄結構,頂層目錄是: /
2、系統中存放的就是檔案
3、系統可以提供對檔案的:建立、刪除、修改、檢視、移動等功能
hdfs跟普通的單機檔案系統有區別:
1、單機檔案系統中存放的檔案,是在一臺機器的作業系統中
2、hdfs的檔案系統會橫跨N多的機器
3、單機檔案系統中存放的檔案,是在一臺機器的磁碟上
4、hdfs檔案系統中存放的檔案,是落在n多機器的本地單機檔案系統中(hdfs是一個基於linux本地檔案系統之上的檔案系統)
hdfs的工作機制:
1、客戶把一個檔案存入hdfs,其實hdfs會把這個檔案切塊後,分散儲存在N臺linux機器系統中(負責儲存檔案塊的角色:data node)<準確來說:切塊的行為是由客戶端決定的>
2、一旦檔案被切塊儲存,那麼,hdfs中就必須有一個機制,來記錄使用者的每一個檔案的切塊資訊,及每一塊的具體儲存機器(負責記錄塊資訊的角色是:name node)
3、為了保證資料的安全性,hdfs可以將每一個檔案塊在叢集中存放多個副本(到底存幾個副本,是由當時存入該檔案的客戶端指定的)
綜述:一個hdfs系統,由一臺運行了namenode的伺服器,和N臺運行了datanode的伺服器組成!
搭建hdfs分散式叢集
hdfs叢集組成結構:
安裝hdfs叢集的具體步驟:
一、首先需要準備N臺linux伺服器
學習階段,用虛擬機器即可!
先準備4臺虛擬機器:1個namenode節點 + 3 個datanode 節點
二、修改各臺機器的主機名和ip地址
主機名:hdp-01 對應的ip地址:192.168.33.61
主機名:hdp-02 對應的ip地址:192.168.33.62
主機名:hdp-03 對應的ip地址:192.168.33.63
主機名:hdp-04 對應的ip地址:192.168.33.64
三、從windows中用CRT軟體進行遠端連線
在windows中將各臺linux機器的主機名配置到的windows的本地域名對映檔案中:
c:/windows/system32/drivers/etc/hosts
192.168.33.61 hdp-01
192.168.33.62 hdp-02
192.168.33.63 hdp-03
192.168.33.64 hdp-04
用crt連線上後,修改一下crt的顯示配置(字號,編碼集改為UTF-8):
四、配置linux伺服器的基礎軟體環境
1.防火牆
關閉防火牆:service iptables stop
關閉防火牆自啟: chkconfig iptables off
2.安裝jdk:(hadoop體系中的各軟體都是java開發的)
1)利用alt+p 開啟sftp視窗,然後將jdk壓縮包拖入sftp視窗
2)然後在linux中將jdk壓縮包解壓到/root/apps 下
3)配置環境變數:JAVA_HOME PATH
vi /etc/profile 在檔案的最後,加入:
export JAVA_HOME=/root/apps/jdk1.8.0_60
export PATH=JAVA_HOME/bin
4)修改完成後,記得 source /etc/profile使配置生效
5)檢驗:在任意目錄下輸入命令: java -version 看是否成功執行
6)將安裝好的jdk目錄用scp命令拷貝到其他機器
7)將/etc/profile配置檔案也用scp命令拷貝到其他機器並分別執行source命令
3.叢集內主機的域名對映配置
在hdp-01上,vi /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.33.61 hdp-01
192.168.33.62 hdp-02
192.168.33.63 hdp-03
192.168.33.64 hdp-04
然後,將hosts檔案拷貝到叢集中的所有其他機器上
scp /etc/hosts hdp-02:/etc/
scp /etc/hosts hdp-03:/etc/
scp /etc/hosts hdp-04:/etc/
補充
提示: 如果在執行scp命令的時候,提示沒有scp命令,則可以配置一個本地yum源來安裝
1、先在虛擬機器中配置cdrom為一個centos的安裝映象iso檔案
2、在linux系統中將光碟機掛在到檔案系統中(某個目錄)
3、mkdir /mnt/cdrom
4、mount -t iso9660 -o loop /dev/cdrom /mnt/cdrom
5、檢驗掛載是否成功: ls /mnt/cdrom
6、3、配置yum的倉庫地址配置檔案
7、yum的倉庫地址配置檔案目錄: /etc/yum.repos.d
8、先將自帶的倉庫地址配置檔案批量更名:
9、然後,拷貝一個出來進行修改
10、修改完配置檔案後,再安裝scp命令:
11、yum install openssh-clients -y
安裝hdfs叢集
1、上傳hadoop安裝包到hdp-01
2、修改配置檔案
要點提示 核心配置引數:
1)指定hadoop的預設檔案系統為:hdfs
2)指定hdfs的namenode節點為哪臺機器
3)指定namenode軟體儲存元資料的本地目錄
4)指定datanode軟體存放檔案塊的本地目錄
hadoop的配置檔案在:/root/apps/hadoop安裝目錄/etc/hadoop/
-
修改hadoop-env.sh
export JAVA_HOME=/root/apps/jdk1.8.0_60 -
修改core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hdp-01:9000</value>
</property>
</configuration>
- 修改hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/root/hdpdata/name/</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/root/hdpdata/data</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hdp-02:50090</value>
</property>
</configuration>
-
拷貝整個hadoop安裝目錄到其他機器
scp -r /root/apps/hadoop-2.8.1 hdp-02:/root/apps/
scp -r /root/apps/hadoop-2.8.1 hdp-03:/root/apps/
scp -r /root/apps/hadoop-2.8.1 hdp-04:/root/apps/ -
啟動HDFS
所謂的啟動HDFS,就是在對的機器上啟動對的軟體
要點
提示: 要執行hadoop的命令,需要在linux環境中配置HADOOP_HOME和PATH環境變數
vi /etc/profile
export JAVA_HOME=/root/apps/jdk1.8.0_60
export HADOOP_HOME=/root/apps/hadoop-2.8.1
export PATH=JAVA_HOME/bin:HADOOP_HOME/sbin
首先,初始化namenode的元資料目錄
要在hdp-01上執行hadoop的一個命令來初始化namenode的元資料儲存目錄
hadoop namenode -format
1.建立一個全新的元資料儲存目錄
2.生成記錄元資料的檔案fsimage
3.生成叢集的相關標識:如:叢集id——clusterID
然後,啟動namenode程序(在hdp-01上)
hadoop-daemon.sh start namenode
啟動完後,首先用jps檢視一下namenode的程序是否存在
然後,在windows中用瀏覽器訪問namenode提供的web埠:50070
http://hdp-01:50070
然後,啟動眾datanode們(在任意地方)
hadoop-daemon.sh start datanode
- 用自動批量啟動指令碼來啟動HDFS
1)先配置hdp-01到叢集中所有機器(包含自己)的免密登陸
2)配完免密後,可以執行一次 ssh 0.0.0.0
3)修改hadoop安裝目錄中/etc/hadoop/slaves(把需要啟動datanode程序的節點列入)
hdp-01
hdp-02
hdp-03
hdp-04
4)在hdp-01上用指令碼:start-dfs.sh 來自動啟動整個叢集
5)如果要停止,則用指令碼:stop-dfs.sh
#hdfs的客戶端操作
##客戶端的理解
hdfs的客戶端有多種形式:
1、網頁形式
2、命令列形式
3、客戶端在哪裡執行,沒有約束,只要執行客戶端的機器能夠跟hdfs叢集聯網
檔案的切塊大小和儲存的副本數量,都是由客戶端決定!
所謂的由客戶端決定,是通過配置引數來定的
hdfs的客戶端會讀以下兩個引數,來決定切塊大小、副本數量:
切塊大小的引數: dfs.blocksize
副本數量的引數: dfs.replication
上面兩個引數應該配置在客戶端機器的hadoop目錄中的hdfs-site.xml中配置
<property>
<name>dfs.blocksize</name>
<value>64m</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
hdfs客戶端的常用操作命令
0、檢視hdfs中的目錄資訊
hadoop fs -ls /hdfs路徑
1、上傳檔案到hdfs中
hadoop fs -put /本地檔案 /aaa
hadoop fs -copyFromLocal /本地檔案 /hdfs路徑 ## copyFromLocal等價於 put
hadoop fs -moveFromLocal /本地檔案 /hdfs路徑 ## 跟copyFromLocal的區別是:從本地移動到hdfs中
2、下載檔案到客戶端本地磁碟
hadoop fs -get /hdfs中的路徑 /本地磁碟目錄
hadoop fs -copyToLocal /hdfs中的路徑 /本地磁碟路徑 ## 跟get等價
hadoop fs -moveToLocal /hdfs路徑 /本地路徑 ## 從hdfs中移動到本地
3、在hdfs中建立資料夾
hadoop fs -mkdir -p /aaa/xxx
4、移動hdfs中的檔案(更名)
hadoop fs -mv /hdfs的路徑 /hdfs的另一個路徑
5、刪除hdfs中的檔案或資料夾
hadoop fs -rm -r /aaa
6、修改檔案的許可權
hadoop fs -chown user:group /aaa
hadoop fs -chmod 700 /aaa
7、追加內容到已存在的檔案
hadoop fs -appendToFile /本地檔案 /hdfs中的檔案
8、顯示文字檔案的內容
hadoop fs -cat /hdfs中的檔案
hadoop fs -tail /hdfs中的檔案
補充:hdfs命令列客戶端的所有命令列表
Usage: hadoop fs [generic options]
[-appendToFile <localsrc> ... <dst>]
[-cat [-ignoreCrc] <src> ...]
[-checksum <src> ...]
[-chgrp [-R] GROUP PATH...]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]
[-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
[-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...]
[-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
[-createSnapshot <snapshotDir> [<snapshotName>]]
[-deleteSnapshot <snapshotDir> <snapshotName>]
[-df [-h] [<path> ...]]
[-du [-s] [-h] [-x] <path> ...]
[-expunge]
[-find <path> ... <expression> ...]
[-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-getfacl [-R] <path>]
[-getfattr [-R] {-n name | -d} [-e en] <path>]
[-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
[-help [cmd ...]]
[-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]]
[-mkdir [-p] <path> ...]
[-moveFromLocal <localsrc> ... <dst>]
[-moveToLocal <src> <localdst>]
[-mv <src> ... <dst>]
[-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
[-renameSnapshot <snapshotDir> <oldName> <newName>]
[-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
[-rmdir [--ignore-fail-on-non-empty] <dir> ...]
[-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
[-setfattr {-n name [-v value] | -x name} <path>]
[-setrep [-R] [-w] <rep> <path> ...]
[-stat [format] <path> ...]
[-tail [-f] <file>]
[-test -[defsz] <path>]
[-text [-ignoreCrc] <src> ...]
[-touchz <path> ...]
[-truncate [-w] <length> <path> ...]
[-usage [cmd ...]]
hdfs的核心工作原理
namenode元資料管理要點
1、什麼是元資料?
hdfs的目錄結構及每一個檔案的塊資訊(塊的id,塊的副本數量,塊的存放位置)
2、元資料由誰負責管理?
namenode
3、namenode把元資料記錄在哪裡?
namenode的實時的完整的元資料儲存在記憶體中;
namenode還會在磁碟中(dfs.namenode.name.dir)儲存記憶體元資料在某個時間點上的映象檔案;
namenode會把引起元資料變化的客戶端操作記錄在edits日誌檔案中;
secondarynamenode會定期從namenode上下載fsimage映象和新生成的edits日誌,然後載入fsimage映象到記憶體中,然後順序解析edits檔案,對記憶體中的元資料物件進行修改(整合)
整合完成後,將記憶體元資料序列化成一個新的fsimage,並將這個fsimage映象檔案上傳給namenode
上述過程叫做:checkpoint操作
提示:secondary namenode每次做checkpoint操作時,都需要從namenode上下載上次的fsimage映象檔案嗎?
第一次checkpoint需要下載,以後就不用下載了,因為自己的機器上就已經有了。
補充:secondary namenode啟動位置的配置
預設值
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>0.0.0.0:50090</value>
</property>
把預設值改成你想要的機器主機名即可
secondarynamenode儲存元資料檔案的目錄配置:
預設值
<property>
<name>dfs.namenode.checkpoint.dir</name>
<value>file://${hadoop.tmp.dir}/dfs/namesecondary</value>
</property>
改成自己想要的路徑即可:/root/dfs/namesecondary
mapreduce執行平臺YARN
mapreduce程式應該是在很多機器上並行啟動,而且先執行map task,當眾多的maptask都處理完自己的資料後,還需要啟動眾多的reduce task,這個過程如果用使用者自己手動排程不太現實,需要一個自動化的排程平臺——hadoop中就為執行mapreduce之類的分散式運算程式開發了一個自動化排程平臺——YARN
安裝yarn叢集
yarn叢集中有兩個角色:
主節點:Resource Manager 1臺
從節點:Node Manager N臺
Resource Manager一般安裝在一臺專門的機器上
Node Manager應該與HDFS中的data node重疊在一起
修改配置檔案:
yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hdp-04</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
然後複製到每一臺機器上
然後在hdp-04上,修改hadoop的slaves檔案,列入要啟動nodemanager的機器
然後將hdp-04到所有機器的免密登陸配置好
然後,就可以用指令碼啟動yarn叢集:
sbin/start-yarn.sh
停止:
sbin/stop-yarn.sh
啟動完成後,可以在windows上用瀏覽器訪問resourcemanager的web埠:
http://hdp-04:8088
看resource mananger是否認出了所有的node manager節點
執行mapreduce程式
首先,為你的mapreduce程式開發一個提交job到yarn的客戶端類(模板程式碼):
1.描述你的mapreduce程式執行時所需要的一些資訊(比如用哪個mapper、reducer、map和reduce輸出的kv型別、jar包所在路徑、reduce task的數量、輸入輸出資料的路徑)
2.將資訊和整個工程的jar包一起交給yarn
然後,將整個工程(yarn客戶端類+ mapreduce所有jar和自定義類)打成jar包
然後,將jar包上傳到hadoop叢集中的任意一臺機器上
最後,執行jar包中的(YARN客戶端類)
[[email protected] ~]# hadoop jar wc.jar cn.edu360.hadoop.mr.wc.JobSubmitter
#安裝yarn叢集
yarn叢集中有兩個角色:
主節點:Resource Manager 1臺
從節點:Node Manager N臺
Resource Manager一般安裝在一臺專門的機器上
Node Manager應該與HDFS中的data node重疊在一起
修改配置檔案:
yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hdp-04</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>2048</value>
</property>
<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<value>2</value>
</property>
然後複製到每一臺機器上
然後在hdp-04上,修改hadoop的slaves檔案,列入要啟動nodemanager的機器
然後將hdp-04到所有機器的免密登陸配置好
然後,就可以用指令碼啟動yarn叢集:
sbin/start-yarn.sh
停止:
sbin/stop-yarn.sh
啟動完成後,可以在windows上用瀏覽器訪問resourcemanager的web埠:
http://hdp-04:8088
看resource mananger是否認出了所有的node manager節點
zookeeper 叢集搭建
1.上傳安裝包,解壓
2.修改conf/zoo.cfg
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
dataDir=/root/zkdata
# the port at which the clients will connect
clientPort=2181
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
server.1=hdp-01:2888:3888
server.2=hdp-02:2888:3888
server.3=hdp-03:2888:3888
配置檔案修改完後,將安裝包拷貝給hdp-02 和 hdp-03
接著,到hdp-01上,新建資料目錄/root/zkdata,並在目錄中生成一個檔案myid,內容為1
接著,到hdp-02上,新建資料目錄/root/zkdata,並在目錄中生成一個檔案myid,內容為2
接著,到hdp-03上,新建資料目錄/root/zkdata,並在目錄中生成一個檔案myid,內容為3
指令碼批量啟動zookeeper叢集:
#!/usr/bin/env bash
for host in hdp-01 hdp-02 hdp-03
do
echo ${host}:${1}ing....
ssh $host " source /etc/profile;/usr/zookeeper-3.4.6/bin/zkServer.sh ${1}"
done
相關推薦
hadoop 叢集安裝與部署(大資料系列)
什麼是大資料 基本概念 《資料處理》 在網際網路技術發展到現今階段,大量日常、工作等事務產生的資料都已經資訊化,人類產生的資料量相比以前有了爆炸式的增長,以前的傳統的資料處理技術已經無法勝任,需求催生技術,一套用來處理海量資料的軟體工具應運而生,這就是大資料!
Python的安裝與應用(大資料實驗一)
實驗名稱 Python的安裝與應用 專 業 軟體工程 姓 名 學 &
ZooKeeper叢集安裝與配置(ZooKeeper3.4.6)
環境 同時需要在/etc/profile檔案中增加 export JAVA_HOME=/usr/java/jdk1.8.0_65 export CLASSPATH=.:$JAVA_HOM
Ubuntu16.04 下 hadoop的安裝與配置(偽分散式環境)
export JAVA_HOME=/usr/lib/jvm/java export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH
Hbase的安裝與部署(叢集版)
HBase 部署與使用 部署 Zookeeper 正常部署 $ ~/modules/zookeeper-3.4.5/bin/zkServer.sh start 首先保證 Zookeeper 叢集的正常部署,並啟動之: Hadoop 正常部署 $ ~/modules/hadoop-2.7.2/sbi
Hadoop本地模式、偽分散式和全分散式叢集安裝與部署
<link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/
Tomcat--安裝與部署(一)
實現 get original servle body public -- ont str 一、Tomcat背景 自從JSP發布之後,推出了各式各樣的JSP引擎。Apache Group在完成GNUJSP1.0的開發以後,開始考慮在SUN的JSWDK基礎上開發一個可以
war包的安裝與部署(以兩個Tomcat為例,詳細)
1 首先匯入資料庫(資料庫中要有該war包的資料庫) 2 執行 jzsales-manager-web.war 在8080埠上 2.1 將 jzsales-manager-web.war複製到Tomcat下的webapps資料
將Maven工程匯出war包(匯出可執行檔案) war包的安裝與部署(以兩個Tomcat為例,詳細)請到:
1 開啟war工程的pom.xml,將如下內容複製到配置Tomcat的程式碼中 &l
Centos7 實現Hadoop-2.9.1分散式叢集搭建和部署(三臺機器)
一、準備三臺虛擬機器hadoop 192.168.131.128 localhost131 192.168.131.131 localhost134 192.168.131.134(以上是我的三臺虛擬機器的hostname 和 ip)hadoop 是 master 的 hos
presto的安裝與部署(對接kafka)
一 安裝環境 作業系統:CenteOs 6.6 JDK 版本:1.8 ps: 本測試將presto的coordinator和worker都部署在一個節點上。 二 安裝Presto 2.1 下載
Kafka 安裝與部署(單機版)與kafkaDemo除錯測試(包含JAVA Demo)
部署需要的包:1. kafka_2.10-0.10.2.0.tar1.解壓kafka_2.10-0.10.2.0安裝包tar -xvf kafka_2.10-0.10.2.0.tar 2.配置kafkacd /software/kafka_2.10-0.10.2.0/con
superset之安裝與部署(Ubuntu16.10)
引言 Superset 是Airbnb的資料科學部門開源的一套工具,它是一個自助式資料分析工具,它的主要目標是簡化我們的資料探索分析操作,它的強大之處在於整個過程一氣呵成,幾乎不用片刻的等待。Superset通過讓使用者建立並且分享儀表盤的方式為資料分析人員提
centos7:Jumpserver安裝與部署(二)
上一篇搭建部署了Jumpserver,但是還未徹底完成,這篇繼續接著上一篇搭建部署Jumpserver。 1、test-env hostname ip role cs74s 19
kafka+zookeeper叢集安裝與配置(CENTOS7環境)及開發中遇到的問題解決
kafka+zookeeper叢集安裝與配置及問題解決(CENTOS)ZOOKEEPER 叢集主要配置(zoo.cfg) :tickTime=2000 initLimit=10 syncLimit=5 dataDir=/home/hadoop/spark/zookeeper-3.4.6/zkdata data
Linux與Windows共享資料夾之samba的安裝與使用(Ubuntu為例)
1.寫在前面 當你在Windows上安裝了一臺Linux的虛擬機器,你想訪問Linux中的資料夾,將虛擬機器中的檔案複製到Windows主機上,你會怎麼做呢?如果這臺Linux主機不是虛擬機器,而是一臺遠端主機呢? 有沒有一種方法,開啟Linux虛擬機器
ActiveMQ在Windows下的安裝與啟動(懶人專屬)
最新 lin 管理 star 新的 tro 安裝目錄 min 1.5 其實這些ActiveMQ官網都有,但是如果你懶得看官網,那就直接看這吧! 1. 官網下載最新的ActiveMQ安裝包 apache-activemq-x.x.x-bin.zip並解壓 2.進入安
高性能HTTP加速器Varnish安裝與配置(包含常見錯誤)
人員 準備 版本 狀態碼 port pop 沒有 gis for Varnish是一款高性能的開源HTTP加速器。挪威最大的在線報紙Verdens Gang使用3臺Varnish取代了原來的12臺Squid,性能竟然比曾經更好。Varnish 的作者Po
wenbao與數論(大白書)
return ble none ron pre 約數 sin std bool 最大公約數之和 https://uva.onlinejudge.org/index.php?option=com_onlinejudge&Itemid=8&page=sh
Docker安裝與使用(從無到有開始二)
玩docker你需要知道二洋東西,映象,容器 1. 映象 假如你需要一個centos的環境的容器,你首先需要下載一個centos的映象,你可以先搜尋映象 1.docker search centos 2.docker pull centos 3.docker images 這個時候你