SpringBoot集成Kafka开发

4.SpringBoot集成Kafka开发

4.1 创建项目

在这里插入图片描述
在这里插入图片描述

4.2 配置文件

application.yml

spring:
  application:
    name: spring-boot-01-kafka-base

  kafka:
    bootstrap-servers: 192.168.2.118:9092

在这里插入图片描述

4.3 创建生产者

package com.zzc.producer;

import jakarta.annotation.Resource;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;

@Component
public class EventProducer {

    @Resource
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendEvent(){
        kafkaTemplate.send("hello-topic", "hello kafka");
    }
}

4.4 测试

package com.zzc.producer;

import jakarta.annotation.Resource;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;

@Component
public class EventProducer {

    @Resource
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendEvent(){
        kafkaTemplate.send("hello-topic", "hello kafka");
    }
}

hello-topic中已存放一个消息

在这里插入图片描述

4.5 创建消费者

package com.zzc.cosumer;

import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

@Component
public class EventConsumer {

    // 采用监听的方式接收事件(消息、数据)
    @KafkaListener(topics = {"hello-topic"}, groupId = "hello-group")
    public void onEvent(String event){
        System.out.printf("读取到的事件:" + event);
    }
}

启动springboot,发现并没有读取到之前的消息

在这里插入图片描述

此时使用测试类调用生成者再发送一个消息,此时消费者成功监听到刚生产的消息

在这里插入图片描述

4.6 Kafka的几个概念

在这里插入图片描述

在这里插入图片描述

  • 默认情况下,当启动一个新的消费者组时,它会从每个分区的最新偏移量(即该分区中最后一条消息的下一个位置)开始消费。如果希望从第一条消息开始消费,需要将消费者的 auto.offset.reset 设置为 earliest ;
  • 注意: 如果之前已经用相同的消费者组 ID 消费过该主题,并且 Kafka 已经保存了该消费者组的偏移量,那么即使你设置了 auto.offset.reset=earliest ,该设置也不会生效,因为 Kafka 只会在找不到偏移量时使用这个配置。在这种情况下,你需要手动重置偏移量或使用一个新的消费者组 ID ;

4.7 消息消费时偏移量策略的配置

 spring:
 	kafka:
 		consumer:
 			auto-offset-reset: earliest
  • 取值: earliest 、 latest 、 none 、 exception
    • earliest :自动将偏移量重置为最早的偏移量;
    • latest :自动将偏移量重置为最新偏移量;
    • none :如果没有为消费者组找到以前的偏移量,则向消费者抛出异常;
    • exception :向消费者抛出异常;( spring-kafka 不支持)
4.7.1 测试修改配置后能否消费之前的消息

修改配置重启服务后,并没有消费之前的消息

在这里插入图片描述

修改消费者组ID,再次重启服务进行测试

@Component
public class EventConsumer {

    // 采用监听的方式接收事件(消息、数据)
    @KafkaListener(topics = {"hello-topic"}, groupId = "hello-group-02")
    public void onEvent(String event){
        System.out.println("读取到的事件:" + event);
    }
}

成功读取到之前的消息

在这里插入图片描述

4.7.2 手动重置偏移量
修改为读取最早的消息
./kafka-consumer-groups.sh --bootstrap-server <your-kafka-bootstrap-servers> --group <your-consumer-group> --topic <your-topic> --reset-offsets --to-earliest --execute

修改为读取最新的消息
./kafka-consumer-groups.sh --bootstrap-server <your-kafka-bootstrap-servers> --group <your-consumer-group> --topic <your-topic> --reset-offsets --to-latest --execute

执行命令

./kafka-consumer-groups.sh --bootstrap-server 127.0.0.1:9092 --group hello-group-02 --topic hello-topic --reset-offsets --to-earliest --execute

在这里插入图片描述

报错:提示我们不能在活跃的情况下进行修改偏移量,需要先停止服务

再次执行命令,已经重置偏移量成功

在这里插入图片描述

此时启动服务,读取到之前的消息了

在这里插入图片描述

4.8 生产者发送消息参数(生产者客户端向Kafka的主题topic中写入事件)

在这里插入图片描述

4.8.1 message对象参数
    /**
     * 使用message对象发送消息
     */
    public void sendEvent02(){
        // 通过构建器模式创建Message对象
        Message<String> message = MessageBuilder.withPayload("hello kafka")
                // 在header中放置topic的名字
                .setHeader(KafkaHeaders.TOPIC, "test-topic-02")
                .build();
        kafkaTemplate.send(message);
    }

测试是否发送消息到topic中

@Test
public void test02(){
    eventProducer.sendEvent02();
}

成功发送消息到test-topic-02中

在这里插入图片描述

4.8.2 producerRecord对象参数
    /**
     * 使用ProducerRecord对象发送消息
     */
    public void sendEvent03(){

        // Headers里面是放一些信息(信息是key-value键值对),到时候消费者接收到该消息后,可以拿到这个Headers里面放的信息
        Headers headers = new RecordHeaders();
        headers.add("phone", "13698001234".getBytes(StandardCharsets.UTF_8));
        headers.add("orderId", "12473289472846178242873".getBytes(StandardCharsets.UTF_8));

        ProducerRecord<String, String> producerRecord = new ProducerRecord<>(
                "test-topic-02",
                0,
                System.currentTimeMillis(),
                "k1",
                "hello kafka",
                headers
        );
        kafkaTemplate.send(producerRecord);
    }

测试

@Test
public void test03(){
    eventProducer.sendEvent03();
}

成功向test-topic-02中发送一条消息

在这里插入图片描述

4.8.3 send最多参数构造方法
    public void sendEvent04() {
        // String topic, Integer partition, Long timestamp, K key, @Nullable V data
        kafkaTemplate.send(
                "test-topic-02",
                0,
                System.currentTimeMillis(),
                "k2",
                "hello kafka"
        );
    }

测试

@Test
public void test04(){
    eventProducer.sendEvent04();
}

成功向test-topic-02中发送一条消息

在这里插入图片描述

4.8.4 sendDefault最多参数构造方法
public void sendEvent05(){
    kafkaTemplate.sendDefault(0, System.currentTimeMillis(), "k3", "hello kafka");
}

测试

@Test
public void test04(){
    eventProducer.sendEvent04();
}

执行测试方法,报错提示 topic不能为空

在这里插入图片描述

需要在配置文件中添加配置

spring:
  application:
    name: spring-boot-01-kafka-base

  kafka:
    bootstrap-servers: 192.168.2.118:9092
    consumer:
      auto-offset-reset: earliest
    # 配置模板默认的主题topic名称
    template:
      default-topic: default-topic

再次执行测试方法,成功向default-topic中发送消息

在这里插入图片描述

4.9 KafkaTemplate.send()和KafkaTemplate.sendDefault()的区别

  • 主要区别是发送消息到 Kafka 时是否每次都需要指定主题 topic;
    • kafkaTemplate.send(…) 该方法需要明确地指定要发送消息的目标主题 topic ;
    • kafkaTemplate.sendDefault() 该方法不需要指定要发送消息的目标主题 topic ;
  • kafkaTemplate.send(…) 方法适用于需要根据业务逻辑或外部输入动态确定消息目标 topic 的场景;
  • kafkaTemplate.sendDefault() 方法适用于总是需要将消息发送到特定默认 topic 的场景;
  • kafkaTemplate.sendDefault() 是一个便捷方法,它使用配置中指定的默认主题 topic 来发送消息;
  • 如果应用中所有消息都发送到同一个主题时采用该方法非常方便,可以减少代码的重复或满足特定的业务需求;

4.10 获取生产者消息发送结果

  • .send() 方法和 .sendDefault() 方法都返回 CompletableFuture<SendResult<K, V>> ;

  • CompletableFuture 是 Java 8 中引入的一个类,用于异步编程,它表示一个异步计算的结果,这个特性使得调用者不必等待操作完成就能继续执行其他任务,从而提高了应用程序的响应速度和吞吐量;

  • 方式一:调用 CompletableFuture 的 get() 方法,同步阻塞等待发送结果;

  • 方式二:使用 thenAccept(), thenApply(), thenRun() 等方法来注册回调函数,回调函数将在CompletableFuture 完成时被执行;

4.10.1 调用 CompletableFuture 的 get() 方法,同步阻塞等待发送结果
 /**
     * 通过get方法同步阻塞等待发送结果
     */
    public void sendEvent06(){
        CompletableFuture<SendResult<String, String>> completableFuture =
                kafkaTemplate.sendDefault(0, System.currentTimeMillis(), "k3", "hello kafka");
        try {
            // 1.阻塞等待的方式拿结果
            SendResult<String, String> sendResult = completableFuture.get();
            if (sendResult.getRecordMetadata() != null){
                // kafka服务器确认已经接收到了消息
                System.out.println("消息发送成功:" + sendResult.getRecordMetadata().toString());
            }
            System.out.println("producerRecord: " + sendResult.getProducerRecord());
        } catch (Exception e) {
            throw new RuntimeException(e);
        }
    }

测试,成功获取到结果和发送的消息信息

@Test
public void test06(){
    eventProducer.sendEvent06();
}

在这里插入图片描述

4.10.2 使用 thenAccept()方法来注册回调函数,回调函数将在CompletableFuture 完成时被执行
    /**
     * 通过thenAccept方法注册回调函数
     */
    public void sendEvent07(){
        CompletableFuture<SendResult<String, String>> completableFuture =
                kafkaTemplate.sendDefault(0, System.currentTimeMillis(), "k3", "hello kafka");
        completableFuture.thenAccept(sendResult -> {
            if (sendResult.getRecordMetadata() != null){
                // kafka服务器确认已经接收到了消息
                System.out.println("消息发送成功:" + sendResult.getRecordMetadata().toString());
            }
            System.out.println("producerRecord: " + sendResult.getProducerRecord());
        }).exceptionally( throwable -> {
            // 做失败的处理
            throwable.printStackTrace();
            return null;
        });
    }

测试,成功获取到结果和发送的消息信息

@Test
public void test07(){
    eventProducer.sendEvent07();
}

在这里插入图片描述

4.11 生产者发送对象消息

4.11.1 创建User对象
@Builder
@AllArgsConstructor
@NoArgsConstructor
@Data
public class User {

    private int id;

    private String phone;

    private Date birthDay;
}

4.11.2 注入新的kafkaTemplate对象,因为之前的key和value泛型都是String类型
/**
* 发送对象消息
*/
@Resource
private KafkaTemplate<String, Object> kafkaTemplate2;
private KafkaTemplate<String, Object> kafkaTemplate2;
public void sendEvent08(){
    User user = User.builder().id(1200).phone("13698981234").birthDay(new Date()).build();
    // 分区编号为 null ,交给 kafka 自己去分配
    kafkaTemplate2.sendDefault(null, System.currentTimeMillis(), "k4", user);
}
4.11.3 测试发送消息

报错 说不能将value转成StringSerializer

在这里插入图片描述

需要在配置文件中指定value的Serializer类型

    producer:
      # key和value都默认是StringSerializer
      value-serializer: org.springframework.kafka.support.serializer.JsonSerializer

再次执行测试,执行成功

在这里插入图片描述

defalut-topic中新增一条消息

在这里插入图片描述

4.12 Kafka的核心概念:Replica副本

  • Replica :副本,为实现备份功能,保证集群中的某个节点发生故障时,该节点上的 partition 数据不丢失,且
    Kafka 仍然能够继续工作, Kafka 提供了副本机制,一个 topic 的每个分区都有 1 个或多个副本;
  • Replica 副本分为 Leader Replica 和 Follower Replica :
    • Leader :每个分区多个副本中的“主”副本,生产者发送数据以及消费者消费数据,都是来自 leader 副本
    • Follower :每个分区多个副本中的“从”副本,实时从 leader 副本中同步数据,保持和 leader 副本数据的同
      步, leader 副本发生故障时,某个 follower 副本会成为新的 leader 副本;
  • 设置副本个数不能为 0 ,也不能大于节点个数,否则将不能创建 Topic ;
4.12.1 指定topic的分区和副本
4.12.1.1 方式一:通过Kafka提供的命令行工具在创建topic时指定分区和副本
./kafka-topics.sh --create --topic myTopic --partitions 3 --replication-factor 1 --bootstrap-server 127.0.0.1:9092

创建成功

在这里插入图片描述

4.12.1.2 方式二:执行代码时指定分区和副本
  • kafkaTemplate.send(“topic”, message);
  • 直接使用 send() 方法发送消息时, kafka 会帮我们自动完成 topic 的创建工作,但这种情况下创建的 topic 默认只有一个分区,分区有 1 个副本,也就是有它自己本身的副本,没有额外的副本备份;
  • 我们可以在项目中新建一个配置类专门用来初始化 topic ;
@Configuration
public class KafkaConfig {
	
    // 创建一个名为helloTopic的Topic并设置分区数为5,分区副本数为1
    @Bean
    public NewTopic newTopic(){
        // 副本不能设置为0 也不能超过节点数
        return new NewTopic("helloTopic", 5, (short) 1);
    }
}

创建成功

在这里插入图片描述

4.12.2 测试重启服务会不会重置消息,先向helloTopic中发送一个消息
    public void sendEvent09(){
        User user = User.builder().id(1200).phone("13698981234").birthDay(new Date()).build();
        kafkaTemplate2.send(
                "helloTopic",
                null,
                System.currentTimeMillis(),
                "k9",
                user
        );    
    }

测试代码

@Test
public void test09(){
    eventProducer.sendEvent09();
}

成功向helloTopic中发送一个消息

在这里插入图片描述

重启服务后,并没有重置消息

在这里插入图片描述

4.12.3 修改分区数

配置类中增加更新配置代码

@Configuration
public class KafkaConfig {
    
    // 创建一个名为helloTopic的Topic并设置分区数为5,分区副本数为1
    @Bean
    public NewTopic newTopic(){
        return new NewTopic("helloTopic", 5, (short) 1);
    }
    
    // 如果要修改分区数,只需修改配置值重启项目即可,修改分区数并不会导致数据的丢失,但是分区数只能增大不能减少
    @Bean
    public NewTopic updateTopic(){
        return new NewTopic("helloTopic", 10, (short) 1);
    }
}

重启项目,分区数更新为10,消息的位置也没发生变化

在这里插入图片描述

4.13 生产者发送消息的分区策略(消息发到哪个分区中?是什么策略)
  • 生产者写入消息到topic,Kafka将依据不同的策略将数据分配到不同的分区中

​ 如果指定了分区,那将发送消息到指定分区中

在这里插入图片描述

执行测试代码

在这里插入图片描述

看send方法源代码可以看到

在这里插入图片描述

  1. 默认分配策略:BuiltInPartitioner
    • 有key:Utils.toPositive(Utils.murmur2(serializedKey)) % numPartitions;
    • 没有key:使用随机数 % numPartitions
  2. 轮询分配策略:RoundRobinPartitioner(实现的接口:Partitioner)
  3. 自定义分配策略:我们自己定义
4.13.1 轮询分配策略

yml配置文件

spring:
  application:
    name: spring-boot-01-kafka-base

  kafka:
    bootstrap-servers: 192.168.2.118:9092
    producer:
      # key和value都默认是StringSerializer
      value-serializer: org.springframework.kafka.support.serializer.JsonSerializer
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
    consumer:
      auto-offset-reset: earliest
    # 配置模板默认的主题topic名称
    template:
      default-topic: default-topic

配置类

package com.zzc.config;

import org.apache.kafka.clients.admin.NewTopic;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.RoundRobinPartitioner;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.core.DefaultKafkaProducerFactory;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.core.ProducerFactory;

import java.util.HashMap;
import java.util.Map;

@Configuration
public class KafkaConfig {

    @Value("${spring.kafka.bootstrap-servers}")
    private String bootstrapServers;

    @Value("${spring.kafka.producer.value-serializer}")
    private String valueSerializer;

    @Value("${spring.kafka.producer.key-serializer}")
    private String keySerializer;

    /**
     * 生产者相关配置
     * @return
     */
    public Map<String, Object> producerConfigs(){
        HashMap<String, Object> props = new HashMap<>();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, keySerializer);
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, valueSerializer);
        props.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, RoundRobinPartitioner.class);
        return props;
    }

    public ProducerFactory<String, Object> producerFactory(){
        return new DefaultKafkaProducerFactory<>(producerConfigs());
    }

    /**
     * KafkaTemplate 覆盖相关配置类中的kafkaTemplate
     * @return
     */
    @Bean
    public KafkaTemplate<String, Object> kafkaTemplate(){
        return new KafkaTemplate<>(producerFactory());
    }

    // 创建一个名为helloTopic的Topic并设置分区数为5,分区副本数为1
    @Bean
    public NewTopic newTopic(){
        return new NewTopic("helloTopic", 5, (short) 1);
    }

    // 如果要修改分区数,只需修改配置值重启项目即可,修改分区数并不会导致数据的丢失,但是分区数只能增大不能减少
    @Bean
    public NewTopic updateTopic(){
        return new NewTopic("helloTopic", 10, (short) 1);
    }
}

执行测试代码

public void sendEvent09(){
    User user = User.builder().id(1200).phone("13698981234").birthDay(new Date()).build();
    kafkaTemplate2.send(
        "helloTopic",
        user
    );    }
@Test
public void test09(){
    for (int i = 0; i < 5; i++) {
        eventProducer.sendEvent09();
    }
}

debug模式,是进入到RoundRobinPartitioner类中

在这里插入图片描述

查看消息的分区情况,发现并没有完全的轮询,有点误差

在这里插入图片描述

4.13.2 自定义分配策略

创建自定义分配策略类实现Partitioner接口

public class CustomerPartitioner implements Partitioner {
    
    private AtomicInteger nextPartition = new AtomicInteger(0);
    
    @Override
    public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] bytes1, Cluster cluster) {
        List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
        int numPartitions = partitions.size();
        
        if (key == null){
            // 使用轮询方式选择分区
            int next = nextPartition.getAndIncrement();
            // 如果next大于分区的大小,则重置为0
            if (next >= numPartitions){
                nextPartition.compareAndSet(next, 0);
            }
            System.out.println("分区值:" + next);
            return next;
        }else {
            // 如果key不为null,则使用默认的分区策略
            return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
        }
    }

    @Override
    public void close() {

    }

    @Override
    public void configure(Map<String, ?> map) {

    }
}

配置类代码中将分配策略修改为自定义分配策略

在这里插入图片描述

使用debug模式执行测试代码,成功执行到我们自定义的分配策略类中

在这里插入图片描述

执行结果

在这里插入图片描述

为什么是每隔一个存一个分区呢?查看源代码发现进行了二次计算partition

在这里插入图片描述

4.13 生产者发送消息的流程

在这里插入图片描述

4.13.自定义拦截器拦截消息的发送

实现ProducerInterceptor接口,创建CustomerProducerInterceptor类

package com.zzc.config;

import org.apache.kafka.clients.producer.ProducerInterceptor;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;

import java.util.Map;

public class CustomerProducerInterceptor implements ProducerInterceptor<String, Object> {
    /**
     * 发送消息时,会先调用该方法,对信息进行拦截,可以在拦截中对消息做一些处理,记录日志等操作...
     * @param producerRecord
     * @return
     */
    @Override
    public ProducerRecord<String, Object> onSend(ProducerRecord<String, Object> producerRecord) {
        System.out.println("拦截消息:" + producerRecord.toString());
        return producerRecord;
    }

    /**
     * 服务器收到消息后的一个确认
     * @param recordMetadata
     * @param e
     */
    @Override
    public void onAcknowledgement(RecordMetadata recordMetadata, Exception e) {
        if (recordMetadata != null){
            System.out.println("服务器收到该消息:" + recordMetadata.offset());
        }else {
            System.out.println("消息发送失败了,exception = " + e.getMessage());
        }
    }

    @Override
    public void close() {

    }

    @Override
    public void configure(Map<String, ?> map) {

    }
}

配置类中添加拦截器

在这里插入图片描述

执行测试,发现报错了

在这里插入图片描述

需要配置类中添加拦截器的名字

在这里插入图片描述

再次执行测试,成功执行了

在这里插入图片描述

4.14 获取生产者发送的消息

之前模块内容比较多,重新创建一个模块

在这里插入图片描述
在这里插入图片描述

消费者类

@Component
public class EventConsumer {

    // 采用监听的方式接收事件(消息、数据)
    @KafkaListener(topics = {"helloTopic"}, groupId = "helloGroup")
    public void onEvent(String event){
        System.out.println("读取到的事件:" + event);
    }
}

生产者类

@Component
public class EventProducer {

    @Resource
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendEvent() {
        kafkaTemplate.send("helloTopic", "hello kafka");
    }
}

配置文件

spring:
  application:
    name: spring-boot-02-kafka-base

  kafka:
    bootstrap-servers: 192.168.2.118:9092

测试代码

@SpringBootTest
class KafkaBaseApplicationTests {

    @Resource
    private EventProducer eventProducer;

    @Test
    void test01(){
        System.out.println(111);
        eventProducer.sendEvent();
    }

}

启动服务,执行测试代码,成功读取到最新发送的消息

在这里插入图片描述

4.14.1 @Payload : 标记该参数是消息体内容

消费者类参数添加@Payload注解

在这里插入图片描述

重启服务,执行测试代码 成功读取到最新消息

在这里插入图片描述

4.14.2 @Header注解:标记该参数是消息头内容

消费者类参数添加@Header注解 获取header中的topic和partition

@Component
public class EventConsumer {

    // 采用监听的方式接收事件(消息、数据)
    @KafkaListener(topics = {"helloTopic"}, groupId = "helloGroup")
    public void onEvent(@Payload String event,
                        @Header(value = KafkaHeaders.RECEIVED_TOPIC) String topic,
                        @Header(value = KafkaHeaders.RECEIVED_PARTITION) String partition
                        ){
        System.out.println("读取到的事件:" + event +  ", topic:" + topic + ", partition:" + partition);
    }
}

重启服务类,测试代码不变,进行测试

在这里插入图片描述

4.14.3 ConsumerRecord对象

可以从ConsumerRecord对象中获取想要的内容

@Component
public class EventConsumer {

    // 采用监听的方式接收事件(消息、数据)
    @KafkaListener(topics = {"helloTopic"}, groupId = "helloGroup")
    public void onEvent(@Payload String event,
                        @Header(value = KafkaHeaders.RECEIVED_TOPIC) String topic,
                        @Header(value = KafkaHeaders.RECEIVED_PARTITION) String partition,
                        ConsumerRecord<String, String> consumerRecord
                        ){
        System.out.println("读取到的事件:" + event +  ", topic:" + topic + ", partition:" + partition);
        System.out.println("读取到的consumerRecord:" + consumerRecord.toString());
    }
}

重启服务类,测试代码不变,进行测试

想要的内容都可以从ConsumerRecord对象中获取

在这里插入图片描述

4.14.4 获取对象类型数据

User类代码

package com.zzc.model;

import lombok.AllArgsConstructor;
import lombok.Builder;
import lombok.Data;
import lombok.NoArgsConstructor;

import java.util.Date;

@Builder
@AllArgsConstructor
@NoArgsConstructor
@Data
public class User {

    private int id;

    private String phone;

    private Date birthDay;
}

EventConsumer类新增onEvent2方法

    @KafkaListener(topics = {"helloTopic"}, groupId = "helloGroup")
    public void onEvent2(User user,
                         @Header(value = KafkaHeaders.RECEIVED_TOPIC) String topic,
                         @Header(value = KafkaHeaders.RECEIVED_PARTITION) String partition,
                         ConsumerRecord<String, String> consumerRecord
                        ){
        System.out.println("读取到的事件:" + user +  ", topic:" + topic + ", partition:" + partition);
        System.out.println("读取到的consumerRecord:" + consumerRecord.toString());
    }

EventProducer类新增sendEvent2方法

    @Resource
    private KafkaTemplate<String, Object> kafkaTemplate2;
    public void sendEvent2(){
        User user = User.builder().id(213234).phone("13239407234").birthDay(new Date()).build();
        kafkaTemplate2.send("helloTopic", user);
    }

测试类新增test02方法

    @Test
    public void test02(){
        eventProducer.sendEvent2();
    }

执行测试,报错生产者不能将User转换成String类型

在这里插入图片描述

去配置文件中修改生产者和消费者的value序列化器

spring:
  application:
    name: spring-boot-02-kafka-base

  kafka:
    bootstrap-servers: 192.168.2.118:9092

    producer:
      value-serializer: org.springframework.kafka.support.serializer.JsonSerializer

    consumer:
      value-deserializer: org.springframework.kafka.support.seri

重新启动服务,依然报错,说没有找到jackson的jar包

在这里插入图片描述

那我们去pom文件中添加jackson依赖

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-json</artifactId>
</dependency>

添加依赖后可以正常启动了

在这里插入图片描述

执行测试代码,服务一直报错,说User类不受安全的,只有java.util, java.lang下的类才是安全的

在这里插入图片描述

解决方案:将对象类型转为String类型进行发送,读取的时候再将String类型转为对象类型

创建JSONUtils类

package com.zzc.util;

import com.fasterxml.jackson.core.JsonProcessingException;
import com.fasterxml.jackson.databind.ObjectMapper;

public class JSONUtils {

    private static final ObjectMapper OBJECTMAPPER = new ObjectMapper();

    public static String toJSON(Object object){
        try {
            return OBJECTMAPPER.writeValueAsString(object);
        }catch (JsonProcessingException e){
            throw new RuntimeException(e);
        }
    }

    public static <T> T toBean(String jsonStr, Class<T> clazz){
        try {
            return OBJECTMAPPER.readValue(jsonStr, clazz);
        } catch (JsonProcessingException e) {
            throw new RuntimeException(e);
        }
    }
}

修改EventProducer代码,将原本的User类型改为String类型发送到topic中

	public void sendEvent2(){
        User user = User.builder().id(213234).phone("13239407234").birthDay(new Date()).build();
        String userJson = JSONUtils.toJSON(user);
        kafkaTemplate.send("helloTopic", userJson);
    }

修改EventConsumer代码,将原本中参数的User类型改为String类型,再转换成User类型进行消费

    @KafkaListener(topics = {"helloTopic"}, groupId = "helloGroup")
    public void onEvent2(String userStr,
                         @Header(value = KafkaHeaders.RECEIVED_TOPIC) String topic,
                         @Header(value = KafkaHeaders.RECEIVED_PARTITION) String partition,
                         ConsumerRecord<String, String> consumerRecord
    ){
        User user = (User) JSONUtils.toBean(userStr, User.class);
        System.out.println("读取到的事件:" + user +  ", topic:" + topic + ", partition:" + partition);
        System.out.println("读取到的consumerRecord:" + consumerRecord.toString());
    }

将配置文件中的消费者和生产者配置都注释掉

spring:
  application:
    name: spring-boot-02-kafka-base

  kafka:
    bootstrap-servers: 192.168.2.118:9092

#    producer:
#      value-serializer: org.springframework.kafka.support.serializer.JsonSerializer

#    consumer:
#      value-deserializer: org.springframework.kafka.support.serializer.JsonDeserializer

重启服务,再次执行测试代码

在这里插入图片描述

4.14.5 获取自定义配置参数的数据

自定义配置topic的name和consumer的group值,消费者进行读取

spring:
  application:
    name: spring-boot-02-kafka-base

  kafka:
    bootstrap-servers: 192.168.2.118:9092

#    producer:
#      value-serializer: org.springframework.kafka.support.serializer.JsonSerializer

#    consumer:
#      value-deserializer: org.springframework.kafka.support.serializer.JsonDeserializer

kafka:
  topic:
    name: helloTopic
  consumer:
    group: helloGroup

使用${}的方式进行读取配置文件中的值

    @KafkaListener(topics = {"${kafka.topic.name}"}, groupId = "kafka.consumer.group")
    public void onEvent3(String userStr,
                         @Header(value = KafkaHeaders.RECEIVED_TOPIC) String topic,
                         @Header(value = KafkaHeaders.RECEIVED_PARTITION) String partition,
                         ConsumerRecord<String, String> consumerRecord
    ){
        User user = (User) JSONUtils.toBean(userStr, User.class);
        System.out.println("读取到的事件3:" + user +  ", topic:" + topic + ", partition:" + partition);
        System.out.println("读取到的consumerRecord3:" + consumerRecord.toString());
    }

重启服务,执行测试代码,能够读取到消息

在这里插入图片描述

4.14.6 ACK手动确认消息

​ 默认情况下, Kafka 消费者消费消息后会自动发送确认信息给 Kafka 服务器,表示消息已经被成功消费。但在
某些场景下,我们希望在消息处理成功后再发送确认,或者在消息处理失败时选择不发送确认,以便 Kafka 能
够重新发送该消息;

EventConsumer类代码

    @KafkaListener(topics = {"${kafka.topic.name}"}, groupId = "kafka.consumer.group")
    public void onEvent4(String userStr,
                         @Header(value = KafkaHeaders.RECEIVED_TOPIC) String topic,
                         @Header(value = KafkaHeaders.RECEIVED_PARTITION) String partition,
                         ConsumerRecord<String, String> consumerRecord,
                         Acknowledgment acknowledgment
    ){
        User user = (User) JSONUtils.toBean(userStr, User.class);
        System.out.println("读取到的事件4:" + user +  ", topic:" + topic + ", partition:" + partition);
        System.out.println("读取到的consumerRecord4:" + consumerRecord.toString());

    }

配置文件中添加手动ack模式

  kafka:
    bootstrap-servers: 192.168.2.118:9092
    listener:
      ack-mode: manual

重启服务,执行测试代码。无论重启多少此服务,都能读取到这条消息,因为还没有确认消费这条消息,所以offset一直没有变

在这里插入图片描述

如果在代码中加入确认消费的话,那么就只会读取一次,offset也会发生变化

在这里插入图片描述

重启服务后,不再读取到这条消息了

在这里插入图片描述

平常业务中可以这么写

    @KafkaListener(topics = {"${kafka.topic.name}"}, groupId = "kafka.consumer.group")
    public void onEvent4(String userStr,
                         @Header(value = KafkaHeaders.RECEIVED_TOPIC) String topic,
                         @Header(value = KafkaHeaders.RECEIVED_PARTITION) String partition,
                         ConsumerRecord<String, String> consumerRecord,
                         Acknowledgment acknowledgment
    ){
        try {
            User user = (User) JSONUtils.toBean(userStr, User.class);
            System.out.println("读取到的事件4:" + user +  ", topic:" + topic + ", partition:" + partition);
            System.out.println("读取到的consumerRecord4:" + consumerRecord.toString());
            int i = 1 / 0;
            // 可以执行完所有业务,再进行确认消息。如果执行过程中发生异常,那么可以再次消费此消息
            acknowledgment.acknowledge();
        }catch (Exception e){
            e.printStackTrace();
        }
    }
4.14.7 指定 topic 、 partition 、 offset 消费

创建配置类,指定生成5个分区

@Configuration
public class KafkaConfig {

    // 创建一个名为helloTopic的Topic并设置分区数为5,分区副本数为1
    @Bean
    public NewTopic newTopic(){
        return new NewTopic("helloTopic", 5, (short) 1);
    }

}

EventConsumer类中新增onEvent5方法

 @KafkaListener(groupId = "${kafka.consumer.group}",
                	// 配置更加详细的监听信息 topics和topicPartitions不能同时使用
                    topicPartitions = {
                        @TopicPartition(
                                topic = "${kafka.topic.name}",
                            	// 监听topic的0、1、2号分区的所有消息
                                partitions = {"0", "1", "2"},
                            	// 监听3、4号分区中offset从3开始的消息
                                partitionOffsets = {
                                        @PartitionOffset(partition = "3", initialOffset = "3"),
                                        @PartitionOffset(partition = "4", initialOffset = "3")
                                }
                        )
                    })
    public void onEvent5(String userStr,
                         @Header(value = KafkaHeaders.RECEIVED_TOPIC) String topic,
                         @Header(value = KafkaHeaders.RECEIVED_PARTITION) String partition,
                         ConsumerRecord<String, String> consumerRecord,
                         Acknowledgment acknowledgment
    ){
        try {
            User user = (User) JSONUtils.toBean(userStr, User.class);
            System.out.println("读取到的事件5:" + user +  ", topic:" + topic + ", partition:" + partition);
            System.out.println("读取到的consumerRecord5:" + consumerRecord.toString());
            acknowledgment.acknowledge();
        }catch (Exception e){
            e.printStackTrace();
        }
    }

EventProducer新增sendEvent3方法

    public void sendEvent3(){
        for (int i = 0; i < 25; i++) {
            User user = User.builder().id(i).phone("13239407234" + i).birthDay(new Date()).build();
            String userJson = JSONUtils.toJSON(user);
            kafkaTemplate2.send("helloTopic", "k" + i, userJson);
        }

    }

重启服务,执行测试代码

    @Test
    public void test03(){
        eventProducer.sendEvent3();
    }

生成的25个消息已经发送到0~4号分区里了

在这里插入图片描述

消费消息,注意:需要停止服务,先运行测试代码,再启动服务

发现只消费了3条消息

在这里插入图片描述

在这里插入图片描述

现在去配置文件中修改成从最早的消息开始消费

    consumer:
      # 从最早的消息开始消费
      auto-offset-reset: earliest

再次重启服务进行消费,发现还是只消费到3条消息

在这里插入图片描述

这是怎么回事呢?我们之前有遇到过这种情况,有两个解决方案

  • 手动修改分区的偏移量
  • 换一个消费组id

我们去配置文件中换一个groupId,由原来的helloGroup改为helloGroup1

在这里插入图片描述

再次重启服务,发现已经读取到19个消息了

在这里插入图片描述

在这里插入图片描述

再次重启服务的话,发现又只能消费3个消息了

在这里插入图片描述

4.14.8 批量消费消息

重新创建一个模块 spring-boot-03-kafka-base

配置文件进行批量消费配置

spring:
  application:
    name: spring-boot-03-kafka-base

  kafka:
    bootstrap-servers: 192.168.2.118:9092
    consumer:
      # 设置批量最多消费多少条消息
      max-poll-records: 20

    listener:
      # 设置批量消费
      type: batch

创建EventConsumer类

package com.zzc.springboot03kafkabase.cosumer;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import java.util.List;

@Component
public class EventConsumer {

    @KafkaListener(topics = "batchTopic", groupId = "bactchGroup")
    public void onEvent(List<ConsumerRecord<String, String>> records) {
        System.out.println(" 批量消费, records.size() = " + records.size() + " , records = " + records);
    }
}

User类

package com.zzc.springboot03kafkabase.model;

import lombok.AllArgsConstructor;
import lombok.Builder;
import lombok.Data;
import lombok.NoArgsConstructor;

import java.util.Date;

@Builder
@AllArgsConstructor
@NoArgsConstructor
@Data
public class User {

    private int id;

    private String phone;

    private Date birthDay;
}

创建EventProducer类

package com.zzc.springboot03kafkabase.producer;

import com.zzc.springboot03kafkabase.model.User;
import com.zzc.springboot03kafkabase.util.JSONUtils;
import jakarta.annotation.Resource;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;

import java.util.Date;

@Component
public class EventProducer {

    @Resource
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendEvent(){
        for (int i = 0; i < 125; i++) {
            User user = User.builder().id(i).phone("13239407234" + i).birthDay(new Date()).build();
            String userJson = JSONUtils.toJSON(user);
            kafkaTemplate.send("batchTopic", "k" + i, userJson);
        }
    }


}

创建Json字符串转换对象工具类

package com.zzc.springboot03kafkabase.util;

import com.fasterxml.jackson.core.JsonProcessingException;
import com.fasterxml.jackson.databind.ObjectMapper;

public class JSONUtils {

    private static final ObjectMapper OBJECTMAPPER = new ObjectMapper();

    public static String toJSON(Object object){
        try {
            return OBJECTMAPPER.writeValueAsString(object);
        }catch (JsonProcessingException e){
            throw new RuntimeException(e);
        }
    }

    public static <T> T toBean(String jsonStr, Class<T> clazz){
        try {
            return OBJECTMAPPER.readValue(jsonStr, clazz);
        } catch (JsonProcessingException e) {
            throw new RuntimeException(e);
        }
    }
}

pom文件

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>3.2.5</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>
    <groupId>com.zzc</groupId>
    <artifactId>spring-boot-03-kafka-base</artifactId>
    <version>0.0.1-SNAPSHOT</version>
    <name>spring-boot-03-kafka-base</name>
    <description>spring-boot-03-kafka-base</description>
    <properties>
        <java.version>17</java.version>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-json</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka</artifactId>
        </dependency>

        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-devtools</artifactId>
            <scope>runtime</scope>
            <optional>true</optional>
        </dependency>
        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <optional>true</optional>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
            <scope>test</scope>
        </dependency>
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka-test</artifactId>
            <scope>test</scope>
        </dependency>
    </dependencies>

    <build>
        <plugins>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
                <configuration>
                    <excludes>
                        <exclude>
                            <groupId>org.projectlombok</groupId>
                            <artifactId>lombok</artifactId>
                        </exclude>
                    </excludes>
                </configuration>
            </plugin>
        </plugins>
    </build>

</project>

先执行测试文件,生成125个消息到batchTopic的主题中

在这里插入图片描述

启动服务,发现一条消息也没有消费到

在这里插入图片描述

这个问题之前也遇到过,因为默认是最后一个偏移量+1开始消费的。

此时我们需要先在配置文件中将消费消息配置成从最早消息开始消费

    consumer:
      # 设置批量最多消费多少条消息
      max-poll-records: 20
      auto-offset-reset: earliest

修改groupId,因为之前已经使用这个groupId消费过次一次了 所以要换一个groupId

在这里插入图片描述

重启服务,成功消费到消息。每次最多消费20条,总共125条消息都消费到了。

在这里插入图片描述

4.15 消费消息拦截器

​ 在消息消费之前,我们可以通过配置拦截器对消息进行拦截,在消息被实际处理之前对其进行一些操作,例如记录日志、修改消息内容或执行一些安全检查等;

4.15.1 创建新模块spring-boot-04-kafka-base,依赖还是springboot、Lombok、kafka这三个
4.15.2 主文件中添加代码
package com.zzc;

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.context.ApplicationContext;
import org.springframework.context.ConfigurableApplicationContext;
import org.springframework.kafka.config.KafkaListenerContainerFactory;
import org.springframework.kafka.core.ConsumerFactory;

import java.util.Map;

@SpringBootApplication
public class SpringBoot04KafkaBaseApplication {

    public static void main(String[] args) {
        ApplicationContext context = SpringApplication.run(SpringBoot04KafkaBaseApplication.class, args);
        Map<String, ConsumerFactory> beansOfType = context.getBeansOfType(ConsumerFactory.class);
        beansOfType.forEach((k, v) -> {
            System.out.println(k + " -- " + v);
        });

        Map<String, KafkaListenerContainerFactory> beansOfType2 = context.getBeansOfType(KafkaListenerContainerFactory.class);
        beansOfType2.forEach((k, v) -> {
            System.out.println(k + " -- " + v);
        });
    }

}

启动服务类,发现容器中默认有kafkaConsumerFactory和kafkaListenerContainerFactory类

在这里插入图片描述

我们需要使用自己的kafkaConsumerFactory和kafkaListenerContainerFactory,因为我们需要加上拦截器

4.15.2 创建拦截器CustomConsumerInterceptor
package com.zzc.interceptor;


import org.apache.kafka.clients.consumer.ConsumerInterceptor;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.OffsetAndMetadata;
import org.apache.kafka.common.TopicPartition;

import java.util.Map;

public class CustomConsumerInterceptor implements ConsumerInterceptor<String, String > {

    /**
     * 在消费消息之前执行
     * @param consumerRecords
     * @return
     */
    @Override
    public ConsumerRecords<String, String> onConsume(ConsumerRecords<String, String> consumerRecords) {
        System.out.println("onConsumer方法执行:" + consumerRecords);
        return consumerRecords;
    }

    /**
     * 消息拿到之后,提交offset之前执行该方法
     * @param offsets
     */
    @Override
    public void onCommit(Map<TopicPartition, OffsetAndMetadata> offsets) {
        System.out.println("onCommit方法执行:" + offsets);
    }

    @Override
    public void close() {

    }

    @Override
    public void configure(Map<String, ?> map) {

    }
}

4.15.3 创建配置类
package com.zzc.config;

import com.zzc.interceptor.CustomConsumerInterceptor;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.config.KafkaListenerContainerFactory;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;

import java.util.HashMap;
import java.util.Map;

@Configuration
public class KafkaConfig {



    @Value("${spring.kafka.bootstrap-servers}")
    private String bootstrapServers;

    @Value("${spring.kafka.consumer.value-deserializer}")
    private String valueDeSerializer;

    @Value("${spring.kafka.consumer.key-deserializer}")
    private String keyDeSerializer;


    public Map<String, Object> consumerConfigs(){
        HashMap<String, Object> consumer = new HashMap<>();
        consumer.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,bootstrapServers);
        consumer.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,keyDeSerializer);
        consumer.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, valueDeSerializer);
        // 添加一个消费拦截器
        consumer.put(ConsumerConfig.INTERCEPTOR_CLASSES_CONFIG, CustomConsumerInterceptor.class.getName());
        return consumer;
    }

    /**
     * 消费者创建工厂
     * @return
     */
    @Bean
    public ConsumerFactory<String, String> ourConsumerFactory(){
        return new DefaultKafkaConsumerFactory<>(consumerConfigs());
    }

    /**
     * 监听器容器工厂
     * @param ourConsumerFactory
     * @return
     */
    @Bean
    public KafkaListenerContainerFactory ourKafkaListenerContainerFactory(ConsumerFactory ourConsumerFactory){
        ConcurrentKafkaListenerContainerFactory<String, String> listenerContainerFactory = new ConcurrentKafkaListenerContainerFactory<>();
        listenerContainerFactory.setConsumerFactory(ourConsumerFactory);
        return listenerContainerFactory;
    }
}

4.15.4 测试spring容器默认的和自定义的消费者创建工厂和监听器容器工厂

重启服务,测试容器中用的已经是我们自己创建的消费者创建工厂和监听器容器工厂了

在这里插入图片描述

我们自定义的监听器容器工厂的配置中可以看到有我们创建的拦截器对象

在这里插入图片描述

spring的默认监听器工厂对象的配置中就没有我们创建的拦截器对象

在这里插入图片描述

4.15.5 消费消息

创建消费者对象,KafkaListener注解加上containerFactory参数

package com.zzc.cosumer;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import java.util.List;

@Component
public class EventConsumer {

    @KafkaListener(topics = {"interTopic"}, groupId = "interGroup", containerFactory = "ourKafkaListenerContainerFactory")
    public void onEvent(ConsumerRecord<String, String> records) {
        System.out.println(" 消费消息, records = " + records);
    }
}

创建生产者对象

package com.zzc.producer;


import com.zzc.model.User;
import com.zzc.util.JSONUtils;
import jakarta.annotation.Resource;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;

import java.util.Date;

@Component
public class EventProducer {

    @Resource
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendEvent() {
        User user = User.builder().id(1023).phone("13239407234").birthDay(new Date()).build();
        String userJson = JSONUtils.toJSON(user);
        kafkaTemplate.send("interTopic", "k", userJson);
    }


}

测试代码

    @Resource
    private EventProducer eventProducer;

    @Test
    public void test(){
        eventProducer.sendEvent();
    }

启动服务,再执行测试代码,成功打印出拦截器中的消息

在这里插入图片描述

测试KafkaListener注解中不加containerFactory参数是否会打印拦截器的消息

@Component
public class EventConsumer {

//    @KafkaListener(topics = {"interTopic"}, groupId = "interGroup", containerFactory = "ourKafkaListenerContainerFactory")
    @KafkaListener(topics = {"interTopic"}, groupId = "interGroup", )
    public void onEvent(ConsumerRecord<String, String> records) {
        System.out.println(" 消费消息, records = " + records);
    }
}

重启服务,再次执行测试代码,发现并没有打印出拦截器的消息

在这里插入图片描述

4.16 消息转发

​ 消息转发就是应用 A 从 TopicA 接收到消息,经过处理后转发到 TopicB ,再由应用 B 监听接收该消息,即一个应用处理完成后将该消息转发至其他应用处理,这在实际开发中,是可能存在这样的需求的;

创建一个新模块spring-boot-05-kafka-base,结构如下

在这里插入图片描述

consumer代码

package com.zzc.cosumer;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.messaging.handler.annotation.SendTo;
import org.springframework.stereotype.Component;

import java.util.List;

@Component
public class EventConsumer {

    @KafkaListener(topics = {"topicA"}, groupId = "group1")
    @SendTo("topicB")  // 转发消息给topicB
    public String onEvent(ConsumerRecord<String, String> record) {
        System.out.println(" 消费消息, record = " + record);
        return record.value() + "forward message";
    }

    @KafkaListener(topics = {"topicB"}, groupId = "group2")
    public void onEvent2(List<ConsumerRecord<String, String>> records) {
        System.out.println(" 消费消息, record = " + records);
    }
}

producer代码

package com.zzc.producer;


import com.zzc.model.User;
import com.zzc.util.JSONUtils;
import jakarta.annotation.Resource;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;

import java.util.Date;

@Component
public class EventProducer {

    @Resource
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendEvent() {
        User user = User.builder().id(1023).phone("13239407234").birthDay(new Date()).build();
        String userJson = JSONUtils.toJSON(user);
        kafkaTemplate.send("topicA", "k", userJson);
    }
}

启动服务,执行测试代码

在这里插入图片描述

在这里插入图片描述

4.17 消息消费的分区策略

  • Kafka 消费消息时的分区策略:是指 Kafka 主题 topic 中哪些分区应该由哪些消费者来消费;

在这里插入图片描述

  • Kafka 有多种分区分配策略,默认的分区分配策略是RangeAssignor ,除了 RangeAssignor 策略外, Kafka 还有其他分区分配策略:
    • RoundRobinAssignor
    • StickyAssignor
    • CooperativeStickyAssignor ,
  • 这些策略各有特点,可以根据实际的应用场景和需求来选择适合的分区分配策略;

在这里插入图片描述

4.17.1 RangeAssignor 策略

创建新模块spring-boot-06-kafka-base

配置类KafkaConfig

package com.zzc.config;

import org.apache.kafka.clients.admin.NewTopic;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

@Configuration
public class KafkaConfig {


    // 创建一个名为helloTopic的Topic并设置分区数为5,分区副本数为1
    @Bean
    public NewTopic newTopic(){
        return new NewTopic("myTopic", 10, (short) 1);
    }
}

消费者类EventConsumer

package com.zzc.cosumer;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import java.util.List;

@Component
public class EventConsumer {

    // concurrency 消费者数量
    @KafkaListener(topics = {"myTopic"}, groupId = "myGroup", concurrency = "3")
    public void onEvent(ConsumerRecord<String, String> records) {
        System.out.println(" 消费消息, records = " + records);
    }
}

生产者类

package com.zzc.producer;


import com.zzc.model.User;
import com.zzc.util.JSONUtils;
import jakarta.annotation.Resource;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;

import java.util.Date;

@Component
public class EventProducer {

    @Resource
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendEvent() {
        for (int i = 0; i < 100; i++) {
            User user = User.builder().id(i).phone("13239407234" + i).birthDay(new Date()).build();
            String userJson = JSONUtils.toJSON(user);
            kafkaTemplate.send("myTopic", "k" + i, userJson);
        }

    }


}

测试代码

package com.zzc;

import com.zzc.producer.EventProducer;
import jakarta.annotation.Resource;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;

@SpringBootTest
class SpringBoot06KafkaBaseApplicationTests {

    @Resource
    private EventProducer eventProducer;

    @Test
    public void test(){
        eventProducer.sendEvent();
    }

}

配置文件

spring:
  application:
    name: spring-boot-06-kafka-base


  kafka:
    bootstrap-servers: 192.168.2.118:9092

    consumer:
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      auto-offset-reset: earliest

先执行测试代码,生产100个消息发送到10个分区中

在这里插入图片描述

启动服务,进行消费,打印出100个消息

在这里插入图片描述

我们来看一下最小的线程id38是否消费4个分区

在这里插入图片描述

在这里插入图片描述

线程id38确实是消费了0、1、2、3号共4个分区。其他两个线程各消费3个分区

4.17.2 RoundRobinAssignor策略

配置文件中无法修改策略,所以需要在配置类中设置

配置类代码

package com.zzc.config;

import org.apache.kafka.clients.admin.NewTopic;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.RoundRobinAssignor;
import org.apache.kafka.clients.producer.RoundRobinPartitioner;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.config.KafkaListenerContainerFactory;
import org.springframework.kafka.core.ConsumerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;

import java.util.HashMap;
import java.util.Map;

@Configuration
public class KafkaConfig {

    @Value("${spring.kafka.bootstrap-servers}")
    private String bootstrapServers;

    @Value("${spring.kafka.consumer.value-deserializer}")
    private String valueDeSerializer;

    @Value("${spring.kafka.consumer.key-deserializer}")
    private String keyDeSerializer;

    @Value("${spring.kafka.consumer.auto-offset-reset}")
    private String autoOffsetReset;


    public Map<String, Object> consumerConfigs(){
        HashMap<String, Object> consumer = new HashMap<>();
        consumer.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,bootstrapServers);
        consumer.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,keyDeSerializer);
        consumer.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, valueDeSerializer);
        consumer.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, autoOffsetReset);
        // 设置消费者策略为轮询模式
        consumer.put(ConsumerConfig.PARTITION_ASSIGNMENT_STRATEGY_CONFIG, RoundRobinAssignor.class.getName());

        return consumer;
    }


    // 创建一个名为helloTopic的Topic并设置分区数为5,分区副本数为1
    @Bean
    public NewTopic newTopic(){
        return new NewTopic("myTopic", 10, (short) 1);
    }

    /**
     * 消费者创建工厂
     * @return
     */
    @Bean
    public ConsumerFactory<String, String> ourConsumerFactory(){
        return new DefaultKafkaConsumerFactory<>(consumerConfigs());
    }

    /**
     * 监听器容器工厂
     * @param ourConsumerFactory
     * @return
     */
    @Bean
    public KafkaListenerContainerFactory ourKafkaListenerContainerFactory(ConsumerFactory ourConsumerFactory){
        ConcurrentKafkaListenerContainerFactory<String, String> listenerContainerFactory = new ConcurrentKafkaListenerContainerFactory<>();
        listenerContainerFactory.setConsumerFactory(ourConsumerFactory);
        return listenerContainerFactory;
    }
}

消费者代码中设置为自定义监听器容器创建工厂

package com.zzc.cosumer;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import java.util.List;

@Component
public class EventConsumer {

    // concurrency 设置消费者数量    containerFactory 设置监听器容器工厂
    @KafkaListener(topics = {"myTopic"}, groupId = "myGroup4", concurrency = "3", containerFactory = "ourKafkaListenerContainerFactory")
    public void onEvent(ConsumerRecord<String, String> records) {
        System.out.println(Thread.currentThread().getId() + " --> 消费消息, records = " + records);
    }
}

执行测试代码,发现线程id39消费的分区变成0、3、6、9号分区了

在这里插入图片描述

在这里插入图片描述

采用 RoundRobinAssignor 策略进行测试,得到的结果如下:
39 : 0 , 3 , 6 , 9
41 : 1 , 4 , 7
43 : 2 , 5 , 8

4.17.3 StickyAssignor 消费分区策略
  • 尽可能保持消费者与分区之间的分配关系不变,即使消费组的消费者成员发生变化,减少不必要的分区重分配;
  • 尽量保持现有的分区分配不变,仅对新加入的消费者或离开的消费者进行分区调整。这样,大多数消费者可以
    继续消费它们之前消费的分区,只有少数消费者需要处理额外的分区;所以叫“粘性”分配;
4.17.4 CooperativeStickyAssignor 消费分区策略
  • 与 StickyAssignor 类似,但增加了对协作式重新平衡的支持,即消费者可以在它离开消费者组之前通知协调
    器,以便协调器可以预先计划分区迁移,而不是在消费者突然离开时立即进行分区重分配;

4.18 Kafka 事件 ( 消息、数据 ) 的存储

  • kafka的所有事件(消息、数据)都存储在/tmp/kafka-logs目录中,可通过log.dirs=/tmp/kafka-logs配置

  • Kafka的所有事件(消息、数据)都是以日志文件的方式来保存

  • Kafka一般都是海量的消息数据,为了避免日志文件过大,日志文件被存放在多个日志目录下,日志目录的命名规则为:<topic_name>-<partiton_id>

  • 比如创建一个名为 firstTopic 的 topic ,其中有 3 个 partition ,那么在 kafka 的数据目录( /tmp/kafka-
    log )中就有 3 个目录, firstTopic-0 、 firstTopic-1 、 firstTopic-2 ;

    在这里插入图片描述

​ 进入myTopic-0中

在这里插入图片描述

查看日志信息

在这里插入图片描述

  • 00000000000000000000.index 消息索引文件
  • 00000000000000000000.log 消息数据文件
  • 00000000000000000000.timeindex 消息的时间戳索引文件
  • 00000000000000000006.snapshot 快照文件,生产者发生故障或重启时能够恢复并继续之前的操作
  • leader-epoch-checkpoint 记录每个分区当前领导者的 epoch 以及领导者开始写入消息时的起始偏移量
  • partition.metadata 存储关于特定分区的元数据( metadata )信息
 每次消费一个消息并且提交以后,会保存当前消费到的最近的一个 offset ;
 在 kafka 中,有一个 __consumer_offsets 的 topic , 消费者消费提交的 offset 信息会写入到
该 topic 中, __consumer_offsets 保存了每个 consumer group 某一时刻提交的 offset 信息
, __consumer_offsets 默认有 50 个分区;
 consumer_group 保存在哪个分区中的计算公式:
 Math.abs(“groupid”.hashCode())%groupMetadataTopicPartitionCount ;

4.19 Offset详解

4.19.1 生产者Offset
  • 生产者发送一条消息到 Kafka 的 broker 的某个 topic 下某个 partition 中;

  • Kafka 内部会为每条消息分配一个唯一的 offset ,该 offset 就是该消息在 partition 中的位置

    在这里插入图片描述

在这里插入图片描述

创建spring-boot-07-kafka-base模块

消费者代码

package com.zzc.cosumer;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

@Component
public class EventConsumer {


    @KafkaListener(topics = {"offsetTopic"}, groupId = "offsetGroup")
    public void onEvent(ConsumerRecord<String, String> records) {
        System.out.println(Thread.currentThread().getId() + " --> 消费消息, records = " + records);
    }
}

生产者代码

package com.zzc.producer;


import com.zzc.model.User;
import com.zzc.util.JSONUtils;
import jakarta.annotation.Resource;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;

import java.util.Date;

@Component
public class EventProducer {

    @Resource
    private KafkaTemplate<String, String> kafkaTemplate;

    public void sendEvent() {
        for (int i = 0; i < 2; i++) {
            User user = User.builder().id(i).phone("13239407234" + i).birthDay(new Date()).build();
            String userJson = JSONUtils.toJSON(user);
            kafkaTemplate.send("offsetTopic", "k" + i, userJson);
        }

    }


}

配置文件

spring:
  application:
    name: spring-boot-07-kafka-base


  kafka:
    bootstrap-servers: 192.168.2.118:9092

    consumer:
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer

测试代码

package com.zzc;

import com.zzc.producer.EventProducer;
import jakarta.annotation.Resource;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;

@SpringBootTest
class SpringBoot07KafkaBaseApplicationTests {

    @Resource
    private EventProducer eventProducer;

    @Test
    public void test(){
        eventProducer.sendEvent();
    }

}

执行测试代码

在这里插入图片描述

4.19.2 消费者Offset
  1. 每个消费者组启动开始监听消息,默认从消息的最新的位置开始监听消息,即把最新的位置作为消费者
    offset ;
    • 分区中还没有发送消息,则最新的位置就是0
    • 分区中已经发送过消息,则最新的位置就是生产者offset的下一个位置
  2. 消费者消费消息后,如果不提交确认( ack ),则 offset 不更新,提交了才更新;
  • 命令行命令: ./kafka-consumer-groups.sh --bootstrap-server 127.0.0.1:9092 --group 消费者组名 --describe
4.19.2.1 验证分区中已经发送过消息的情况

启动服务,监听器并没有消费到消息

在这里插入图片描述

使用命令看一下offsetGroup的offset是在哪

在这里插入图片描述

我们再发两条消息试试,先把服务停了,执行测试代码发送消息

再次执行命令 查看offsetGroup的offset是在哪

在这里插入图片描述

我们现在启动服务,能够消费到消息了

在这里插入图片描述

消费完消息,再次执行命令,发现current-offset已经变成4了,也没有消息可读了

在这里插入图片描述

4.19.2.2 验证分区中还没有发过消息的情况

我们把offsetTopic删除,然后重启服务,再执行命令

在这里插入图片描述
然后停止服务,执行测试代码 发送消息,在执行命令

在这里插入图片描述

我们再启动服务,就能够消费这2个消息

在这里插入图片描述

4.19.3 offset总结

消费者从什么位置开始消费,就看消费者的 offset 是多少,消费者 offset 是多少,它启动后,可以通过上面
的命令查看;

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/588511.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

MATLAB 数据输出

MATLAB 数据输出 数据导出(或输出)在 MATLAB 的意思是写入文件。MATLAB 允许您在另一个读取 ASCII 文件的应用程序中使用您的数据。为此&#xff0c;MATLAB 提供了几个数据导出选项。 您可以创建以下类型的文件- 数组中的矩形、分隔的ASCII数据文件。 击键的日记&#xff08…

Linux系统安装Redis7(详细版)

Linux系统安装Redis7 一、windows安装redis二、Linux安装Redis下载redis编辑redis7.conf文件启动redis-server服务如何关闭redis服务设置Redis开机自启动 一、windows安装redis Window 下安装 下载地址&#xff1a;https://github.com/dmajkic/redis/downloads 下载到的Redi…

6.k8s中的secrets资源

一、Secret secrets资源&#xff0c;类似于configmap资源&#xff0c;只是secrets资源是用来传递重要的信息的&#xff1b; secret资源就是将value的值使用base64编译后传输&#xff0c;当pod引用secret后&#xff0c;k8s会自动将其base64的编码&#xff0c;反编译回正常的字符…

OpenCV(一) —— OpenCV 基础

1、OpenCV 简介 OpenCV&#xff08;Open Source Computer Vision Library&#xff09;是一个基于 BSD 许可开源发行的跨平台的计算机视觉库。可用于开发实时的图像处理、计算机视觉以及模式识别程序。由英特尔公司发起并参与开发&#xff0c;以 BSD 许可证授权发行&#xff0c…

【QT学习】14.线程学习

一。线程了解 线程是计算机科学中的一个重要概念&#xff0c;它是操作系统能够进行运算调度的最小单位。线程是进程中的一个执行流&#xff0c;一个进程可以包含多个线程。与进程相比&#xff0c;线程更轻量级&#xff0c;可以更高效地利用计算机资源。 线程有以下几个特点&…

vue3+ts 原生 js drag drop 实现

vue3ts 原生 js drag drop 实现 一直以来没有涉及的一个领域就是 drag drop 拖动操作&#xff0c;研究了下&#xff0c;实现了&#xff0c;所以写个教程。 官方说明页面及实例&#xff1a;https://developer.mozilla.org/en-US/docs/Web/API/HTML_Drag_and_Drop_API 最终效果&…

企业计算机服务器中了lockbit勒索病毒如何处理,lockbit勒索病毒解密流程建议

在虚拟的网络世界里&#xff0c;人们利用网络获取信息的方式有很多&#xff0c;网络为众多企业提供了极大便利性&#xff0c;也大大提高了企业生产运营效率&#xff0c;方便企业开展各项工作业务。但随着网络技术的不断发展与应用&#xff0c;越来越多的企业开始关注企业网络数…

Flutter笔记:Widgets Easier组件库(8)使用图片

Flutter笔记 Widgets Easier组件库&#xff08;8&#xff09;&#xff1a;使用图片 - 文章信息 - Author: 李俊才 (jcLee95) Visit me at CSDN: https://jclee95.blog.csdn.netMy WebSite&#xff1a;http://thispage.tech/Email: 291148484163.com. Shenzhen ChinaAddress o…

使用递归函数,将一串数字每位数相加求和

代码结果&#xff1a; #include<stdio.h> int DigitSum(unsigned int n) {if (n > 9)return DigitSum(n / 10) (n % 10);elsereturn n; } int main() {unsigned int n;scanf("%u", &n);int sum DigitSum(n);printf("%d\n", sum);return 0; …

C语言/数据结构——每日一题(合并两个有序链表)

一.前言 嗨嗨嗨&#xff0c;大家好久不见&#xff01;今天我在LeetCode看到了一道单链表题&#xff1a;https://leetcode.cn/problems/merge-two-sorted-lists想着和大家分享一下&#xff0c;废话不多说&#xff0c;让我们开始今天的题目分享吧。 二.正文 1.1题目描述 1.2题…

Javascript:Web APIs(二)

JavaScript&#xff1a;Web APIs&#xff08;一&#xff09; 在上篇文章&#xff0c;我们学习了对BOM对象的一些基本操作&#xff0c;但即使这样&#xff0c;我们也只是能通过js改变元素属性&#xff0c;而不能进行网页的交互效果和动态效果&#xff0c;这时我们就不得不提到事…

Spring Cloud——LoadBalancer

Spring Cloud——LoadBalancer 一、负载均衡&#xff08;LoadBalance&#xff09;1.LoadBalancer本地负载均衡客户端 VS Nginx服务端负载均衡区别 二、LoadBalancer1.Spring RestTemplate as a LoadBalancer Client2.编码使用DiscoveryClient动态获取所有上线的服务列表3.从默认…

QT5之lambda+内存回收机制

使用lambda需要 配置c11 所以在点.pro文件里面配置添加如下 CONFIG c11 使用到qDebug 打印包含头文件 #include<QDebug> lambda 表达式使用 代替槽如下 #include "mainwidget.h" #include<QPushButton> #include<QDebug> mainWidget::mainWid…

探索AI工具的巅峰:个人体验与深度剖析

✨✨ 欢迎大家来访Srlua的博文&#xff08;づ&#xffe3;3&#xffe3;&#xff09;づ╭❤&#xff5e;✨✨ &#x1f31f;&#x1f31f; 欢迎各位亲爱的读者&#xff0c;感谢你们抽出宝贵的时间来阅读我的文章。 我是Srlua小谢&#xff0c;在这里我会分享我的知识和经验。&am…

正点原子[第二期]Linux之ARM(MX6U)裸机篇学习笔记-6.4--汇编LED驱动程序

前言&#xff1a; 本文是根据哔哩哔哩网站上“正点原子[第二期]Linux之ARM&#xff08;MX6U&#xff09;裸机篇”视频的学习笔记&#xff0c;在这里会记录下正点原子 I.MX6ULL 开发板的配套视频教程所作的实验和学习笔记内容。本文大量引用了正点原子教学视频和链接中的内容。…

省级财政收入、支出、第一、二、三产业增加值、工业增加值、金融业增加值占GDP比重数据(1978-2022年)

01、数据介绍 财政收支作为国家治理的基础&#xff0c;越来越受到社会各界的关注。同时&#xff0c;产业结构的优化与升级也是中国经济持续增长的关键因素。本数据对中国省级财政收入、支出占GDP的比重以及第一、二、三产业的增加值占GDP的比重和工业增加值占GDP的比重、金融业…

Python量化炒股的财务因子选股—质量因子选股

Python量化炒股的财务因子选股—质量因子选股 在Python财务因子量化选股中&#xff0c;质量类因子有2个&#xff0c;分别是净资产收益率和总资产净利率。需要注意的是&#xff0c;质量类因子在财务指标数据表indicator中。 净资产收益率&#xff08;roe&#xff09;选股 净资…

创建codereview

创建codereview流程 一、开始创建二、选择分支三、添加细节 一、开始创建 点击codereivew按钮 为新的codereview选择一个工程后点击create review 二、选择分支 选择目标分支和要比对的分支&#xff0c;比如develop 三、添加细节 Add branch后&#xff0c;可以继续Edit …

如何反向查看某个命令所属的rpm包的2个方法?(rpm -qf `which xxx`和yum provides和 rpm -ql xxx.rpm)

文章目录 快速回忆方法1&#xff1a; rpm -qf方法2&#xff1a;yum provides 其他rpm如何查看某个rpm包里面包含哪些命令: rpm -ql主推方法1&#xff1a; rpm -ql方法2&#xff1a;yum info 其他查看rdma-core中包含哪些cmd&#xff1a;一些其他命令所在包探索 快速回忆 rpm -…

C++_set和map的学习

1. 关联式容器 STL中的容器有序列式容器和关联式容器。 其中 vector 、 list 、 deque 、 forward_list(C11)就是序列式容器&#xff0c; 因为其底层为线性序列的数据结构&#xff0c;里面 存储的是元素本身 关联式容器 也是用来存储数据的&#xff0c;与序列式容器不同的是&am…
最新文章