1. 程式人生 > >Nginx整合Kafka

Nginx整合Kafka

kafka 分析 proc images err 當前目錄 object 配置 程序

背景

nginx-kafka-module是nginx的一個插件,可以將kafka整合到nginx中,便於web項目中前端頁面埋點數據的收集,如前端頁面設置了埋點,即可將用戶的一些訪問和請求數據通過http請求直接發送到消息中間件kafka中,後端可以通過程序消費kafka中的消息來進行實時的計算。比如通過SparkStream來實時的消費Kafka中的數據來分析用戶PV,UV、用戶的一些行為及頁面的漏鬥模型轉化率,來更好的對系統進行優化或者對來訪用戶進行實時動態的分析。

具體整合步驟

1.安裝git
    yum install -y git
2.切換到/usr/local/src目錄,然後將kafka的c客戶端源碼clone到本地
    cd /usr/local/src
    git clone https://github.com/edenhill/librdkafka
3.進入到librdkafka,然後進行編譯
    cd librdkafka
    yum install -y gcc gcc-c++ pcre-devel zlib-devel
    ./configure
    make && make install

4.安裝nginx整合kafka的插件,進入到/usr/local/src,clone nginx整合kafka的源碼
    cd /usr/local/src
    git clone https://github.com/brg-liuwei/ngx_kafka_module

5.進入到nginx的源碼包目錄下   (編譯nginx,然後將將插件同時編譯)
    cd /usr/local/src/nginx-1.12.2
    ./configure --add-module=/usr/local/src/ngx_kafka_module/
    make && make install

6.修改nginx的配置文件:設置一個location和kafaka的topic,詳情請查看當前目錄的nginx.conf
#添加配置(2處)
kafka;
kafka_broker_list f1:9092 f2:9092 f3:9092;

location = /kafka/access {
            kafka_topic access888;
        }

如下圖:
技術分享圖片

技術分享圖片

7.啟動zk和kafka集群(創建topic)
    zkServer.sh start
    kafka-server-start.sh -daemon config/server.properties

8.啟動nginx,報錯,找不到kafka.so.1的文件
    error while loading shared libraries: librdkafka.so.1: cannot open shared object file: No such file or directory
9.加載so庫
    #開機加載/usr/local/lib下面的庫
    echo "/usr/local/lib" >> /etc/ld.so.conf
    #手動加載
    ldconfig

10.測試,向nginx中寫入數據,然後觀察kafka的消費者能不能消費到數據
    curl http://localhost/kafka/access -d "message send to kafka topic"
    curl http://localhost/kafka/access -d "小偉666" 

測試

也可以模擬頁面埋點請求接口來發送信息:
技術分享圖片

後臺Kafka消費信息如圖:
技術分享圖片

Nginx整合Kafka