美文网首页BATJ架构
10,Kafka面试题整理收集

10,Kafka面试题整理收集

作者: 裘马轻狂大帅 | 来源:发表于2019-05-19 08:46 被阅读1次

    1.Kafka的设计是什么样的呢?

    Kafka将消息以topic为单位进行归纳

    将向Kafka topic发布消息的程序成为producers.

    将预订topics并消费消息的程序成为consumer.

    Kafka以集群的方式运行,可以由一个或多个服务组成,每个服务叫做一个broker.

    producers通过网络将消息发送到Kafka集群,集群向消费者提供消息

    2.数据传输的事物定义有哪三种?

    数据传输的事务定义通常有以下三种级别:

    (1)最多一次: 消息不会被重复发送,最多被传输一次,但也有可能一次不传输

    (2)最少一次: 消息不会被漏发送,最少被传输一次,但也有可能被重复传输.

    (3)精确的一次(Exactly once): 不会漏传输也不会重复传输,每个消息都传输被一次而且仅仅被传输一次,这是大家所期望的

    3.Kafka判断一个节点是否还活着有那两个条件?

    (1)节点必须可以维护和ZooKeeper的连接,Zookeeper通过心跳机制检查每个节点的连接

    (2)如果节点是个follower,他必须能及时的同步leader的写操作,延时不能太久

    4.producer是否直接将数据发送到broker的leader(主节点)?

    producer直接将数据发送到broker的leader(主节点),不需要在多个节点进行分发,为了帮助producer做到这点,所有的Kafka节点都可以及时的告知:哪些节点是活动的,目标topic目标分区的leader在哪。这样producer就可以直接将消息发送到目的地了

    5、Kafa consumer是否可以消费指定分区消息?

    Kafa consumer消费消息时,向broker发出"fetch"请求去消费特定分区的消息,consumer指定消息在日志中的偏移量(offset),就可以消费从这个位置开始的消息,customer拥有了offset的控制权,可以向后回滚去重新消费之前的消息,这是很有意义的

    6、Kafka消息是采用Pull模式,还是Push模式?

    Kafka最初考虑的问题是,customer应该从brokes拉取消息还是brokers将消息推送到consumer,也就是pull还push。在这方面,Kafka遵循了一种大部分消息系统共同的传统的设计:producer将消息推送到broker,consumer从broker拉取消息

    一些消息系统比如Scribe和Apache Flume采用了push模式,将消息推送到下游的consumer。这样做有好处也有坏处:由broker决定消息推送的速率,对于不同消费速率的consumer就不太好处理了。消息系统都致力于让consumer以最大的速率最快速的消费消息,但不幸的是,push模式下,当broker推送的速率远大于consumer消费的速率时,consumer恐怕就要崩溃了。最终Kafka还是选取了传统的pull模式

    Pull模式的另外一个好处是consumer可以自主决定是否批量的从broker拉取数据。Push模式必须在不知道下游consumer消费能力和消费策略的情况下决定是立即推送每条消息还是缓存之后批量推送。如果为了避免consumer崩溃而采用较低的推送速率,将可能导致一次只推送较少的消息而造成浪费。Pull模式下,consumer就可以根据自己的消费能力去决定这些策略

    Pull有个缺点是,如果broker没有可供消费的消息,将导致consumer不断在循环中轮询,直到新消息到t达。为了避免这点,Kafka有个参数可以让consumer阻塞知道新消息到达(当然也可以阻塞知道消息的数量达到某个特定的量这样就可以批量发

    7.Kafka存储在硬盘上的消息格式是什么?

    消息由一个固定长度的头部和可变长度的字节数组组成。头部包含了一个版本号和CRC32校验码。

    消息长度: 4 bytes (value: 1+4+n)

    版本号: 1 byte

    CRC校验码: 4 bytes

    具体的消息: n bytes

    8.Kafka高效文件存储设计特点:

    (1).Kafka把topic中一个parition大文件分成多个小文件段,通过多个小文件段,就容易定期清除或删除已经消费完文件,减少磁盘占用。

    (2).通过索引信息可以快速定位message和确定response的最大大小。

    (3).通过index元数据全部映射到memory,可以避免segment file的IO磁盘操作。

    (4).通过索引文件稀疏存储,可以大幅降低index文件元数据占用空间大小。

    9.Kafka 与传统消息系统之间有三个关键区别

    (1).Kafka 持久化日志,这些日志可以被重复读取和无限期保留

    (2).Kafka 是一个分布式系统:它以集群的方式运行,可以灵活伸缩,在内部通过复制数据提升容错能力和高可用性

    (3).Kafka 支持实时的流式处理

    10.Kafka创建Topic时如何将分区放置到不同的Broker中

    副本因子不能大于 Broker 的个数;

    第一个分区(编号为0)的第一个副本放置位置是随机从 brokerList 选择的;

    其他分区的第一个副本放置位置相对于第0个分区依次往后移。也就是如果我们有5个 Broker,5个分区,假设第一个分区放在第四个 Broker 上,那么第二个分区将会放在第五个 Broker 上;第三个分区将会放在第一个 Broker 上;第四个分区将会放在第二个 Broker 上,依次类推;

    剩余的副本相对于第一个副本放置位置其实是由 nextReplicaShift 决定的,而这个数也是随机产生的

    11.Kafka新建的分区会在哪个目录下创建

    在启动 Kafka 集群之前,我们需要配置好 log.dirs 参数,其值是 Kafka 数据的存放目录,这个参数可以配置多个目录,目录之间使用逗号分隔,通常这些目录是分布在不同的磁盘上用于提高读写性能。

    当然我们也可以配置 log.dir 参数,含义一样。只需要设置其中一个即可。

    如果 log.dirs 参数只配置了一个目录,那么分配到各个 Broker 上的分区肯定只能在这个目录下创建文件夹用于存放数据。

    但是如果 log.dirs 参数配置了多个目录,那么 Kafka 会在哪个文件夹中创建分区目录呢?答案是:Kafka 会在含有分区目录最少的文件夹中创建新的分区目录,分区目录名为 Topic名+分区ID。注意,是分区文件夹总数最少的目录,而不是磁盘使用量最少的目录!也就是说,如果你给 log.dirs 参数新增了一个新的磁盘,新的分区目录肯定是先在这个新的磁盘上创建直到这个新的磁盘目录拥有的分区目录不是最少为止。

    12.partition的数据如何保存到硬盘

    topic中的多个partition以文件夹的形式保存到broker,每个分区序号从0递增,

    且消息有序

    Partition文件下有多个segment(xxx.index,xxx.log)

    segment 文件里的 大小和配置文件大小一致可以根据要求修改 默认为1g

    如果大小大于1g时,会滚动一个新的segment并且以上一个segment最后一条消息的偏移量命名

    13.kafka的ack机制

    request.required.acks有三个值 0 1 -1

    0:生产者不会等待broker的ack,这个延迟最低但是存储的保证最弱当server挂掉的时候就会丢数据

    1:服务端会等待ack值 leader副本确认接收到消息后发送ack但是如果leader挂掉后他不确保是否复制完成新leader也会导致数据丢失

    -1:同样在1的基础上 服务端会等所有的follower的副本受到数据后才会受到leader发出的ack,这样数据不会丢失

    14.Kafka的消费者如何消费数据

    消费者每次消费数据的时候,消费者都会记录消费的物理偏移量(offset)的位置

    等到下次消费时,他会接着上次位置继续消费

    15.消费者负载均衡策略

    一个消费者组中的一个分片对应一个消费者成员,他能保证每个消费者成员都能访问,如果组中成员太多会有空闲的成员

    16.数据有序

    一个消费者组里它的内部是有序的

    消费者组与消费者组之间是无序的

    17.kafaka生产数据时数据的分组策略

    生产者决定数据产生到集群的哪个partition中

    每一条消息都是以(key,value)格式

    Key是由生产者发送数据传入

    所以生产者(key)决定了数据产生到集群的哪个partition。

    答案整理中:欢迎大家补充

    21,Kafka的用途有哪些?使用场景如何?

    22,Kafka中的ISR、AR又代表什么?ISR的伸缩又指什么

    23,Kafka中的HW、LEO、LSO、LW等分别代表什么?

    24,Kafka中是怎么体现消息顺序性的?

    25,Kafka中的分区器、序列化器、拦截器是否了解?它们之间的处理顺序是什么?

    26,Kafka生产者客户端的整体结构是什么样子的?

    27,Kafka生产者客户端中使用了几个线程来处理?分别是什么?

    28,Kafka的旧版Scala的消费者客户端的设计有什么缺陷?

    28,“消费组中的消费者个数如果超过topic的分区,那么就会有消费者消费不到数据”这句话是否正确?如果正确,那么有没有什么hack的手段?

    29,消费者提交消费位移时提交的是当前消费到的最新消息的offset还是offset+1?

    30,有哪些情形会造成重复消费?

    31,那些情景下会造成消息漏消费?

    32,KafkaConsumer是非线程安全的,那么怎么样实现多线程消费?

    33,简述消费者与消费组之间的关系

    34,当你使用kafka-topics.sh创建(删除)了一个topic之后,Kafka背后会执行什么逻辑?

    35,topic的分区数可不可以增加?如果可以怎么增加?如果不可以,那又是为什么?

    36,topic的分区数可不可以减少?如果可以怎么减少?如果不可以,那又是为什么?

    37,创建topic时如何选择合适的分区数?

    38,Kafka目前有那些内部topic,它们都有什么特征?各自的作用又是什么?

    39,优先副本是什么?它有什么特殊的作用?

    40,Kafka有哪几处地方有分区分配的概念?简述大致的过程及原理

    41,简述Kafka的日志目录结构

    42,Kafka中有那些索引文件?

    43,如果我指定了一个offset,Kafka怎么查找到对应的消息?

    44,如果我指定了一个timestamp,Kafka怎么查找到对应的消息?

    45,说说你对Kafka的Log Retention的理解

    46,说说你对Kafka的Log Compaction的理解

    47,说说你对Kafka底层存储的理解(页缓存、内核层、块层、设备层)

    48,说说Kafka的延时操作的原理

    49,说说Kafka控制器的作用

    50,消费再均衡的原理是什么?(提示:消费者协调器和消费组协调器)

    51,Kafka中的幂等是怎么实现的

    52,Kafka中的事务是怎么实现的(这题我去面试6加被问4次,照着答案念也要念十几分钟,面试官简直凑不要脸)

    53,Kafka中有那些地方需要选举?这些地方的选举策略又有哪些?

    54,失效副本是指什么?有那些应对措施?

    55,多副本下,各个副本中的HW和LEO的演变过程

    56,为什么Kafka不支持读写分离?

    57,Kafka在可靠性方面做了哪些改进?(HW, LeaderEpoch)

    58,Kafka中怎么实现死信队列和重试队列?

    59,Kafka中的延迟队列怎么实现(这题被问的比事务那题还要多!!!听说你会Kafka,那你说说延迟队列怎么实现?)

    60,Kafka中怎么做消息审计?

    61,Kafka中怎么做消息轨迹?

    62,Kafka中有那些配置参数比较有意思?说说你的看法

    63,Kafka中有那些命名比较有意思?说说你的看法

    64,Kafka有哪些指标需要着重关注?

    65,怎么计算Lag?(注意read_uncommitted和read_committed状态下的不同)

    66,Kafka的那些设计让它有如此高的性能?

    67,Kafka有什么优缺点?

    68,还用过什么同质类的其它产品,与Kafka相比有什么优缺点?

    69,为什么选择Kafka?

    70,在使用Kafka的过程中遇到过什么困难?怎么解决的?

    71,怎么样才能确保Kafka极大程度上的可靠性?

    72,说说你对Kafka生态的理解

    相关文章

      网友评论

        本文标题:10,Kafka面试题整理收集

        本文链接:https://www.haomeiwen.com/subject/mydfzqtx.html