当前位置: 首页>后端>正文

RocketMQ工作原理——Rebalance机制

Rebalance机制讨论的前提是:集群消费

什么是Rebalance

Rebalance即再均衡,指的是,将一个Topic下的多个Queue在同一个Consumer Group中的多个Consumer间进行重新分配的过程。

RocketMQ工作原理——Rebalance机制,第1张

Rebalance机制的本意是为了提升消息的并行消费能力。例如,一个Topic下5个队列,在只有1个消费者的情况下,这个消费者将负责消费这5个队列的消息。如果此时我们再增加一个消费者,那么就可以给其中一个消费者分配2个队列,给另一个分配3个队列,从而提升并行消费能力。

Rebalance限制

由于一个队列最多分配给一个消费者,因此当某个消费者组下的消费者实例数量大于队列数量时,多余的消费者实例将分配不到任何队列。

Rebalance危害

Rebalance在提升消费能力的同时,也带来了一些问题。

消费暂停:在只有一个Consumer时,其负责消费所有队列;在新增了一个Consumer后会触发Rebalance的发生。此时原Consumer就需要暂停部分队列的消费,等到这些队列分配给新的Consumer后,这些暂停消费的队列才能继续被消费。

消费重复:Consumer在消费新分配给自己的队列时,必须接着之前Consumer提交的消费进度的offset继续消费。然而默认情况下,offset是异步提交的,这个异步性导提交到Broker的offset鱼Consumer实际消费的消息并不一致。这个不一致的差值就是可能会重复消费的消息

同步提交:Consumer提交了其消费完毕的一批消息的offset给Broker后,需要等待Broker成功ACK。当收到ACK后,Consumer才会继续获取并消费下一批消息。在等待ACK期间,Consumer是阻塞的
异步提交:Consumer提交了其消费完毕的一批消息的offset给Broker后,不需要等待Broker的成功ACK。Consumer可以直接获取并消费下一批消息。
对于一次性读取消息的数量,需要根据具体业务场景选择一个相对均衡的。因为数量过大,系统性能提升了,但产生重复消费的消息量可能会增加;数量过小,系统性能会下降,但被重复消费的消息数量可能会减少

消费突刺:由于Rebalance可能导致重复消费,如果需要重复消费的消息过多,或者因为Rebalance暂停时间过长从而导致积压了部分消息。那么有可能会导致在Rebalance结束之后瞬间需要消费很多消息

Rebalance产生的原因

导致Rebalance产生的原因有两个:消费者所订阅Topic的Queue数量发生变化,或消费者组中消费者的数量发生变化

1、Queue数量发生变化的场景:
Broker扩容或缩容
Broker升级运维
Broker与NameServer间网络异常
Queue扩容或缩容
2、消费者数量发生变化的场景:
Consumer Group扩容或缩容
Consumer升级运维
Consumer与NameServer网络异常

Rebalance过程

在Broker中维护着多个Map集合,这些集合中动态存放着当前Topic中Queue的信息、Consumer Group中Consumer实例的信息。一旦发现消费者所订阅的Queue数量发生变化,或消费者组中消费者的数量发生变化,立即向Consumer Group中的每个实例发出Rebalance通知。

TopicConfigManager:key是Topic名称,value是TopicConfig。TopicConfig中维护着该Topic中所有Queue的数据
ConsumerManager:key是Consumer Group Id,value是ConsumerGroupInfo
ConsumerGroupInfo中维护着该Group中所有Consumer实例数据
ConsumerOffsetManager:key为Topic与订阅该Topic的Group的组合,即topic@group,value是一个内层Map。内层Map的key为QueueId,内层Map的value是该Queue的消费进度offset

Consumer实例在接收到通知后会采用Queue分配算法自己获取到相应的Queue,即由Consumer实例自主进行Rebalance。

与Kafka对比

在Kafka中,一旦发现出现了Rebalance条件,Broker会调用Group Coordinator来完成Rebalance。Coordinator是Broker中的一个进程。Coordinator会在Consumer Group中选出一个Group Leader。由这个Leader根据自己本身组情况完成Partition分区的再分配。这个再分配结果会上报给Coordinator,并有Coordinator同步给Group中所有Consumer实例。

Kafka中的Rebalance是有Consumer Leader完成的。而RocketMQ中的Rebalance是由每个Consumer自身完成的,Group中不存在Leader。


https://www.xamrdz.com/backend/36h1939770.html

相关文章: