@KafkaListener 如何使用
DemonHunter211 人气:0@KafkaListener 如何使用
spring-kafka使用基于@KafkaListener注解,@KafkaListener使用方式如下
@KafkaListener(topics = "topic1") public void kafkaListen(List<ConsumerRecord<xxx, xxx>> records) { ... }
在注解内指定topic名称,当对应的topic内有新的消息时,testListen方法会被调用,参数就是topic内新的消息。这个过程是异步进行的。
@KafkaListener工作流程主要有以下几步:
解析;解析@KafkaListener注解。
注册;解析后的数据注册到spring-kafka。
监听;开始监听topic变更。
调用;调用注解标识的方法,将监听到的数据作为参数传入。
下面我们一步一步分析
解析
@KafkaListener注解由KafkaListenerAnnotationBeanPostProcessor类解析,后者实现了BeanPostProcessor接口,这个接口如下
public interface BeanPostProcessor { Object postProcessBeforeInitialization(Object bean, String beanName) throws BeansException; Object postProcessAfterInitialization(Object bean, String beanName) throws BeansException; }
接口内部有2个方法,分别在bean初始化前后被调用。
KafkaListenerAnnotationBeanPostProcessor内会在postProcessAfterInitialization方法内解析@KafkaListener注解。
注册
解析步骤里,我们可以获取到所有含有@KafkaListener注解的类,之后这些类的相关信息会被注册到 KafkaListenerEndpointRegistry内,包括注解所在的方法,当前的bean等。KafkaListenerEndpointRegistry这个类内部会维护多个Listener Container,每一个@KafkaListener都会对应一个Listener Container。并且每个Container对应一个线程。
监听
注册完成之后,每个Listener Container会开始工作,会新启一个新的线程,初始化KafkaConsumer,监听topic变更等。
调用
监听到数据之后,container会组织消息的格式,随后调用解析得到的@KafkaListener注解标识的方法,将组织后的消息作为参数传入方法,执行用户逻辑。
@KafkaListener和@KafkaListners
@KafkaListeners是@KafkaListener的Container Annotation,这也是jdk8的新特性之一,注解可以重复标注。
@KafkaListeners({@KafkaListener(topics="topic1"), @KafkaListener(topics="topic2")}) public void listen(ConsumerRecord<Integer, String> msg) {} 等同于 @KafkaListener(topics="topic1") @KafkaListener(topics="topic2") public void listen(ConsumerRecord<Integer, String> msg) {}
扩展:kafka的消费者分区分配策略
kafka有三种分区分配策略
1. RoundRobin
2. Range
3. Sticky
1. RoundRobin
(1)把所有topic的分区partition放入一个队列中,按照name的hashcode进行排序;
(2)把consumer放在一个循环队列,按照name的hashcode进行排序;
(3)循环遍历consumer,从partition队列pop出一个partition,分配给当前consumer;以此类推,取下一个consumer,继续从partition队列pop出来分配给当前consumer;直到partition队列中的元素被分配完;
2. Range
(1)假设topicA有4个分区,topicB有5个分区,topicC有6个分区;一共有3个consumer;
(2)遍历3个topic的分区集合,先取topicA的分区集合,然后准备依次给3个consumer分配分区;对于第1个consumer,所分配的分区数量根据以下公式:假设消费者数量为N,当前主题剩下的分区数量为M,则当前消费者应该分配的分区数量 = M%N==0? M/N +1 : M/N ;按照公式,3个消费者应该分配的分区数量依次为:2/1/1,即topicA-partition-0/1分配给consumer-0,topicA-partition-2分配给consumer-1,topicA-partition-3分配给consumer-2;
(3)按照上述规则按序把topicB和topicC的分区分配给3个consumer;依次为:2/2/1,2/2/2;
3. Sticky
kafka在0.11版本引入了Sticky分区分配策略,它的两个主要目的是:
1. 分区的分配要尽可能的均匀,分配给消费者者的主题分区数最多相差一个;
2. 分区的分配尽可能的与上次分配的保持相同;
当两者发生冲突时,第一个目标优先于第二个目标;
粘性分区是由Kafka从0.11x版本开始引入的分配策略,首先会尽量均衡的分配分区到消费者上面,在出现同一消费组内消费者出现问题的时候,会尽量保持原来的分配的分区不变;
Sticky分区初始分配分区的方法与Range相似,但是不同;拿7个分区3个消费者为例,消费者消费的分区依旧是3/2/2,但是不同与Range的是Range分区是排好序的,但是Sticky分区是随机的;
加载全部内容