1. 程式人生 > >ActiveMQ 高可用集群安裝、配置(ZooKeeper + LevelDB)

ActiveMQ 高可用集群安裝、配置(ZooKeeper + LevelDB)

訪問 wrap 創建 管理 apache link over love 其他

ActiveMQ 高可用集群安裝、配置(ZooKeeper + LevelDB)

1、ActiveMQ 集群部署規劃:

環境: JDK7

版本:ActiveMQ 5.11.1

ZooKeeper 集群環境:10.14.0.1:2181,10.14.0.2:2182,10.14.0.3:2183(ZooKeeper 集群部署請參考《ZooKeeper 集群的安裝、配置》)

主機

集群端口

消息端口

管控臺端口

節點安裝目錄

192.168.1.11

63631

53531

8361

/opt/aijia/activemq/node-01

192.168.1.12

63632

53532

8362

/opt/aijia/activemq/node-02

192.168.1.12

63633

53533

8363

/opt/aijia/activemq/node-03

修改操作系統的/etc/hosts 文件,添加 IP 與主機名映射:

#ActiveMQ cluster servers
10.14.0.1 mq-01.ihomefnt.com ihome-mq-01
10.14.0.2 mq-02.ihomefnt.com ihome-mq-02
10.14.0.3 mq-03.ihomefnt.com ihome-mq-03

2、防火墻打開對應的端口

## mq cluster

-A INPUT -m state --state NEW -m tcp -p tcp --dport 8361 -j ACCEPT
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8362 -j ACCEPT
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8363 -j ACCEPT
-A INPUT -m state --state NEW -m tcp -p tcp --dport 53531 -j ACCEPT
-A INPUT -m state --state NEW -m tcp -p tcp --dport 53532
-j ACCEPT -A INPUT -m state --state NEW -m tcp -p tcp --dport 53533 -j ACCEPT -A INPUT -m state --state NEW -m tcp -p tcp --dport 63631 -j ACCEPT -A INPUT -m state --state NEW -m tcp -p tcp --dport 63632 -j ACCEPT -A INPUT -m state --state NEW -m tcp -p tcp --dport 63633 -j ACCEPT -A INPUT -m state --state NEW -m tcp -p tcp --dport 63631 -j ACCEPT

3、分別在三臺主機中創建/opt/product/activemq 目錄

$ mkdir /opt/product/activemq
wget http://archive.apache.org/dist/activemq/5.11.1/apache-activemq-5.11.1-bin.tar.gz

4、解壓並按節點命名

$ cd /opt/product/activemq
$ tar -xvf apache-activemq-5.11.1-bin.tar.gz
$ mv apache-activemq-5.11.1 node-0X   #(X 代表節點號 123,下同)

5、修改管理控制臺端口(默認為 8161)可在 conf/jetty.xml 中修改,如下:

Node-01 管控臺端口:

<bean id="jettyPort" class="org.apache.activemq.web.WebConsolePort" init-method="start">
<!-- the default port number for the web console -->
<property name="host" value="0.0.0.0"/>
<property name="port" value="8361"/>
</bean>

Node-02 管控臺端口:

<bean id="jettyPort" class="org.apache.activemq.web.WebConsolePort" init-method="start">
<!-- the default port number for the web console -->
<property name="host" value="0.0.0.0"/>
<property name="port" value="8362"/>
</bean>

Node-03 管控臺端口:

<bean id="jettyPort" class="org.apache.activemq.web.WebConsolePort" init-method="start">
<!-- the default port number for the web console -->
<property name="host" value="0.0.0.0"/>
<property name="port" value="8363"/> </bean>

6、集群配置:

在 3 個 ActiveMQ 節點中配置 conf/activemq.xml 中的持久化適配器。修改其中 bind、zkAddress、

hostname 和 zkPath。註意:每個 ActiveMQ 的 BrokerName 必須相同,否則不能加入集群。

Node-01 中的持久化配置:

<broker xmlns="http://activemq.apache.org/schema/core" brokerName="ihome-mq" dataDirectory="${activemq.data}">

<persistenceAdapter>

<!-- kahaDB directory="${activemq.data}/kahadb"/ -->

<replicatedLevelDB

directory="${activemq.data}/leveldb"

replicas="3"

bind="tcp://0.0.0.0:63631"

zkAddress="192.168.1.11:2181,192.168.1.12:2182,192.168.1.12:2183"

hostname="ihome-mq-01"

zkPath="/activemq2/leveldb-stores"

/>

</persistenceAdapter>

</broker>

Node-02 中的持久化配置:

<broker xmlns="http://activemq.apache.org/schema/core" brokerName=" ihome-mq " dataDirectory="${activemq.data}">

<persistenceAdapter>

<!-- kahaDB directory="${activemq.data}/kahadb"/ -->

<replicatedLevelDB

directory="${activemq.data}/leveldb"

replicas="3"

bind="tcp://0.0.0.0:63632"

zkAddress="192.168.1.11:2181,192.168.1.12:2182,192.168.1.12:2183"

hostname=" ihome-mq-02"

zkPath="/activemq2/leveldb-stores"

/>

</persistenceAdapter>

</broker>

Node-03 中的持久化配置:

<broker xmlns="http://activemq.apache.org/schema/core" brokerName=" ihome-mq " dataDirectory="${activemq.data}">

<persistenceAdapter>

<!-- kahaDB directory="${activemq.data}/kahadb"/ -->

<replicatedLevelDB

directory="${activemq.data}/leveldb"

replicas="3"

bind="tcp://0.0.0.0:63633"

zkAddress="192.168.1.11:2181,192.168.1.12:2182,192.168.1.12:2183"

hostname=" ihome-mq-03"

zkPath="/activemq2/leveldb-stores"

/>

</persistenceAdapter>

</broker>

修改各節點的消息端口(註意,避免端口沖突):

Node-01 中的消息端口配置:

<transportConnectors>
<!-- DOS protection, limit concurrent connections to 1000 and frame size to 100MB -->
<transportConnector name="openwire" uri="tcp://0.0.0.0:53531?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="amqp" uri="amqp://0.0.0.0:5672?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="stomp" uri="stomp://0.0.0.0:61613?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="mqtt" uri="mqtt://0.0.0.0:1883?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="ws" uri="ws://0.0.0.0:61614?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
</transportConnectors>

Node-02 中的消息端口配置:

<transportConnectors>
<!-- DOS protection, limit concurrent connections to 1000 and frame size to 100MB -->
<transportConnector name="openwire" uri="tcp://0.0.0.0:53532?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="amqp" uri="amqp://0.0.0.0:5672?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="stomp" uri="stomp://0.0.0.0:61613?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="mqtt" uri="mqtt://0.0.0.0:1883?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="ws" uri="ws://0.0.0.0:61614?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
</transportConnectors>

Node-03 中的消息端口配置:

<transportConnectors>
<!-- DOS protection, limit concurrent connections to 1000 and frame size to 100MB -->
<transportConnector name="openwire" uri="tcp://0.0.0.0:53533?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="amqp" uri="amqp://0.0.0.0:5672?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="stomp" uri="stomp://0.0.0.0:61613?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="mqtt" uri="mqtt://0.0.0.0:1883?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
<transportConnector name="ws" uri="ws://0.0.0.0:61614?maximumConnections=1000&amp;wireFormat.maxFrameSize=104857600"/>
</transportConnectors>

7、按順序啟動 3 個 ActiveMQ 節點:

$ /opt/product/activemq/node-01/bin/activemq start
$ /opt/product/activemq/node-02/bin/activemq start
$ /opt/product/activemq/node-03/bin/activemq start

8、集群的節點狀態分析:

集群啟動後對 ZooKeeper 數據的抓圖,可以看到 ActiveMQ 的有 3 個節點,分別是 00000000000,

00000000001,00000000002。

9、集群可用性測試:

ActiveMQ 的客戶端只能訪問 Master 的 Broker,其他處於 Slave 的 Broker 不能訪問。所以客戶端連

接 Broker 應該使用 failover 協議。

failover:(tcp:// mq-01.ihomefnt.com:53531,tcp:// mq-02.ihomefnt.com:53532,tcp:// mq-03.ihomefnt.com:53533)?ran

domize=false

10、集群高可用測試:

當一個 ActiveMQ 節點掛掉,或者一個 ZooKeeper 節點掛掉,ActiveMQ 服務依然正常運轉。如果僅剩

一個 ActiveMQ 節點,因為不能選舉 Master,ActiveMQ 不能正常運轉;同樣的,如果 ZooKeeper 僅剩一個

節點活動,不管 ActiveMQ 各節點是否存活,ActiveMQ 也不能正常提供服務。

11、設置開機啟動:

# vi /etc/rc.local

su - wusc -c ‘/opt/aijia/activemq/node-01/bin/activemq start‘

su - wusc -c ‘/opt/aijia/activemq/node-02/bin/activemq start‘

su - wusc -c ‘/opt/aijia/activemq/node-03/bin/activemq start‘

ActiveMQ 高可用集群安裝、配置(ZooKeeper + LevelDB)