1. 程式人生 > >SpringBoot Kafka 整合使用

SpringBoot Kafka 整合使用

mark

前提

假設你瞭解過 SpringBoot 和 Kafka。

1、SpringBoot

如果對 SpringBoot 不瞭解的話,建議去看看 DD 大佬純潔的微笑 的系列部落格。

2、Kafka

Kafka 的話可以看看我前兩天寫的部落格 : Kafka 安裝及快速入門 學習的話自己開臺虛擬機器自己手動搭建環境吧,有條件的買伺服器。

注意:一定要親自自己安裝實踐,接下來我們將這兩個進行整合。

建立專案

專案整體架構:

mark

使用 IDEA 建立 SpringBoot 專案,這個很簡單了,這裡不做過多的講解。

1、pom 檔案程式碼如下:

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.zhisheng</groupId> <artifactId
>
kafka-learning</artifactId> <version>0.0.1-SNAPSHOT</version> <packaging>jar</packaging> <name>kafka-learning</name> <description>Demo project for Spring Boot + kafka</description> <parent> <groupId>org.springframework.boot</groupId
>
<artifactId>spring-boot-starter-parent</artifactId> <version>1.5.9.RELEASE</version> <relativePath/> <!-- lookup parent from repository --> </parent> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding> <java.version>1.8</java.version> </properties> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> <optional>true</optional> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>1.1.1.RELEASE</version> </dependency> <dependency> <groupId>com.google.code.gson</groupId> <artifactId>gson</artifactId> <version>2.8.2</version> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> </plugins> </build> </project>

主要引入了 spring-kafka 、lombok 、 gson 依賴。

2、訊息實體類 Message.java 如下:

@Data
public class Message {
    private Long id;    //id

    private String msg; //訊息

    private Date sendTime;  //時間戳

}

3、訊息傳送類 KafkaSender.java

@Component
@Slf4j
public class KafkaSender {

    @Autowired
    private KafkaTemplate<String, String> kafkaTemplate;

    private Gson gson = new GsonBuilder().create();

    //傳送訊息方法
    public void send() {
        Message message = new Message();
        message.setId(System.currentTimeMillis());
        message.setMsg(UUID.randomUUID().toString());
        message.setSendTime(new Date());
        log.info("+++++++++++++++++++++  message = {}", gson.toJson(message));
        kafkaTemplate.send("zhisheng", gson.toJson(message));
    }
}

就這樣,傳送訊息程式碼就實現了。

這裡關鍵的程式碼為 kafkaTemplate.send() 方法,zhisheng 是 Kafka 裡的 topic ,這個 topic 在 Java 程式中是不需要提前在 Kafka 中設定的,因為它會在傳送的時候自動建立你設定的 topic, gson.toJson(message) 是訊息內容,這裡暫時先說這麼多了,不詳解了,後面有機會繼續把裡面原始碼解讀寫篇部落格出來(因為中途碰到坑,老子跟了幾遍原始碼)。

4、訊息接收類 KafkaReceiver.java

@Component
@Slf4j
public class KafkaReceiver {

    @KafkaListener(topics = {"zhisheng"})
    public void listen(ConsumerRecord<?, ?> record) {

        Optional<?> kafkaMessage = Optional.ofNullable(record.value());

        if (kafkaMessage.isPresent()) {

            Object message = kafkaMessage.get();

            log.info("----------------- record =" + record);
            log.info("------------------ message =" + message);
        }

    }
}

客戶端 consumer 接收訊息特別簡單,直接用 @KafkaListener 註解即可,並在監聽中設定監聽的 topictopics 是一個數組所以是可以繫結多個主題的,上面的程式碼中修改為 @KafkaListener(topics = {"zhisheng","tian"}) 就可以同時監聽兩個 topic 的訊息了。需要注意的是:這裡的 topic 需要和訊息傳送類 KafkaSender.java 中設定的 topic 一致。

5、啟動類 KafkaApplication.java

@SpringBootApplication
public class KafkaApplication {

    public static void main(String[] args) {

        ConfigurableApplicationContext context = SpringApplication.run(KafkaApplication.class, args);

        KafkaSender sender = context.getBean(KafkaSender.class);

        for (int i = 0; i < 3; i++) {
            //呼叫訊息傳送類中的訊息傳送方法
            sender.send();

            try {
                Thread.sleep(3000);
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }
    }
}

6、配置檔案 application.properties

#============== kafka ===================
# 指定kafka 代理地址,可以多個
spring.kafka.bootstrap-servers=192.168.153.135:9092

#=============== provider  =======================

spring.kafka.producer.retries=0
# 每次批量傳送訊息的數量
spring.kafka.producer.batch-size=16384
spring.kafka.producer.buffer-memory=33554432

# 指定訊息key和訊息體的編解碼方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

#=============== consumer  =======================
# 指定預設消費者group id
spring.kafka.consumer.group-id=test-consumer-group

spring.kafka.consumer.auto-offset-reset=earliest
spring.kafka.consumer.enable-auto-commit=true
spring.kafka.consumer.auto-commit-interval=100

# 指定訊息key和訊息體的編解碼方式
spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer

spring.kafka.bootstrap-servers 後面設定你安裝的 Kafka 的機器 IP 地址和埠號 9092。

如果你只是簡單整合下,其他的幾個預設就好了。

Kafka 設定

在你安裝的 Kafka 目錄檔案下:

啟動 zk

使用安裝包中的指令碼啟動單節點 Zookeeper 例項:

bin/zookeeper-server-start.sh -daemon config/zookeeper.properties

啟動 Kafka 服務

使用 kafka-server-start.sh 啟動 kafka 服務:

bin/kafka-server-start.sh  config/server.properties

mark

啟動成功後!

千萬注意: 記得將你的虛擬機器或者伺服器關閉防火牆或者開啟 Kafka 的埠 9092。

執行

mark

出現這就代表整合成功了!

我們看下 Kafka 中的 topic 列表就

bin/kafka-topics.sh --list --zookeeper localhost:2181

mark

就會發現剛才我們程式中的 zhisheng 已經自己建立了。

關注我

mark

最後