美文网首页
1、Kafka保证高可用性

1、Kafka保证高可用性

作者: 呢看了看 | 来源:发表于2020-05-22 09:49 被阅读0次

            Kafka一个最基本的架构认识:多个Broker组成,每个Broker是一个节点;你创建一个topic,这个topic可以划分为多个partitipn,每个partition可以存在于不同的broker上,每个partition 就放一部分数据。

             这就是天然的分布式消息队列,就是说一个topic的数据,是分散在多个机器的,每个机器就放一部分数据。

            实际上rabbitmq之类的,并不是分布式消息队列,他就是传统的消息队列,只不过是提供了了一些集群、HA的机制而已,因为无论怎么玩儿,rabbitmq一个queue的数据都是放在一个节点里的。镜像集群下,也是每个节点都放这个queue的完整数据。

            Kafka 0.8以前,是没有HA机制的,就是任何一个Broker宕机了,那个broker上的partition就废了,没法写也没法读,没有什么高可用而言。

            Kafka 0.8以后,提供了HA机制,就是replica副本机制。每个partition的数据都会同步给其他机器上,形成自己的多个replica副本。然后所有replica会选举出来一个leader出来,那么生产和消费都跟这个leader打交道,然后其他replica就是follower。写的时候,leader会负责把数据同步到所有follower上去,读的时候就直接读leader上数据即可。只能读写leader?很简单,要是你可以随意读写每个follower,那么就要care数据一致性的问题,系统复杂度太高,很容易出问题。Kafka会均匀的将一个partition的所有replica分布在不同的机器上,这样才可以提高容错性。

             这么搞,就有所谓的高可用性了,因为如果某个Broker宕机了,没事儿,那个Broker上面的partition在其他机器上都有副本的,如果这上面有某个partition的leader,那么此时会重新选举出来一个新的leader出来,大家继续读写那个新的leader即可。这就有所谓的高可用性了。      

            写数据的时候,生产者就写leader,然后leader将数据落地写本地磁盘,接着其他follower自己主动从leader来pull数据。一旦所有follower同步好数据了,就会发送ack给leader,leader收到所有follower的ack之后,就会返回写成功的消息给生产者。(当然,这只是其中的一个模式,还可以适当调整这个行为)。消费的时候,只会从leader去读,但是只有一个消息已经被所有follower都同步成功返回ack的时候,这个消息才会被消费者读到。

    相关文章

      网友评论

          本文标题:1、Kafka保证高可用性

          本文链接:https://www.haomeiwen.com/subject/nubfahtx.html