Kafka的用途有哪些?使用场景如何?
Kafka具有吞吐量大 简单的优点,适用于日志收集 大数据实时计算等场景Kafka中的ISR、AR又代表什么?ISR的伸缩又指什么
AR:Assigned Replicas 所有副本列表
ISR:InSync Replicas 同步副本列表
ISR expand : 有副本恢复同步状态
ISR shrink : 有副本脱离同步状态Kafka中的HW、LEO、LSO、LW等分别代表什么?
HW: High Watermark/高水位。 是已备份消息位置,HW之前的消息均可被consumer消费 leader.HW=min(ISR.LEO) follower.HW=min(follower.LEO,leader.HW)
LEO: Log End Offset/日志末端偏移。是下一条消息写入位置(LEO=10 有9条消息)
LSO:last stable offset/稳定偏移 。 LSO之前的消息状态都已确认(commit/aborted)主要用于事务
LW:Kafka中是怎么体现消息顺序性的?
kafka每个partition中的消息在写入时都是有序的,消费时,每个partition只能被每一个group中的一个消费者消费,保证了消费时也是有序的。
整个topic不保证有序Kafka中的分区器、序列化器、拦截器是否了解?它们之间的处理顺序是什么?
分区器:根据键值确定消息应该处于哪个分区中,默认情况下使用轮询分区,可以自行实现分区器接口自定义分区逻辑
序列化器:键序列化器和值序列化器,将键和值都转为二进制流 还有反序列化器 将二进制流转为指定类型数据
拦截器:两个方法 doSend()方法会在序列化之前完成 onAcknowledgement()方法在消息确认或失败时调用 可以添加多个拦截器按顺序执行
调用顺序: 拦截器doSend() -> 序列化器 -> 分区器Kafka生产者客户端的整体结构是什么样子的?
“消费组中的消费者个数如果超过topic的分区,那么就会有消费者消费不到数据”这句话是否正确?如果不正确,那么有没有什么hack的手段?
正确消费者提交消费位移时提交的是当前消费到的最新消息的offset还是offset+1?
offset+1有哪些情形会造成重复消费?
消费者消费后没有commit offset(程序崩溃/强行kill/消费耗时/自动提交偏移情况下unscrible)那些情景下会造成消息漏消费?
消费者没有处理完消息 提交offset(自动提交偏移 未处理情况下程序异常结束)KafkaConsumer是非线程安全的,那么怎么样实现多线程消费?
每个线程一个消费者简述消费者与消费组之间的关系
消费者从属与消费组,消费偏移以消费组为单位。每个消费组可以独立消费主题的所有数据,同一消费组内消费者共同消费主题数据,每个分区只能被同一消费组内一个消费者消费。当你使用kafka-topics.sh创建(删除)了一个topic之后,Kafka背后会执行什么逻辑?
创建:在zk上/brokers/topics/下节点 kafkabroker会监听节点变化创建主题
删除:调用脚本删除topic会在zk上将topic设置待删除标志,kafka后台有定时的线程会扫描所有需要删除的topic进行删除topic的分区数可不可以增加?如果可以怎么增加?如果不可以,那又是为什么?
可以增加topic的分区数可不可以减少?如果可以怎么减少?如果不可以,那又是为什么?
不能减少 会丢失数据创建topic时如何选择合适的分区数?
根据集群的机器数量和需要的吞吐量来决定适合的分区数Kafka目前有那些内部topic,它们都有什么特征?各自的作用又是什么?
__consumer_offsets 以双下划线开头,保存消费组的偏移优先副本是什么?它有什么特殊的作用?
优先副本 会是默认的leader副本 发生leader变化时重选举会优先选择优先副本作为leaderKafka有哪几处地方有分区分配的概念?简述大致的过程及原理
创建主题时
如果不手动指定分配方式 有两种分配方式消费组内分配
简述Kafka的日志目录结构
每个partition一个文件夹,包含四类文件.index .log .timeindex leader-epoch-checkpoint
.index .log .timeindex 三个文件成对出现 前缀为上一个segment的最后一个消息的偏移 log文件中保存了所有的消息 index文件中保存了稀疏的相对偏移的索引 timeindex保存的则是时间索引
leader-epoch-checkpoint中保存了每一任leader开始写入消息时的offset 会定时更新
follower被选为leader时会根据这个确定哪些消息可用Kafka中有那些索引文件?
如上如果我指定了一个offset,Kafka怎么查找到对应的消息?
- 通过文件名前缀数字x找到该绝对offset 对应消息所在文件
- offset-x为在文件中的相对偏移
3.通过index文件中记录的索引找到最近的消息的位置
4.从最近位置开始逐条寻找
如果我指定了一个timestamp,Kafka怎么查找到对应的消息?
原理同上 但是时间的因为消息体中不带有时间戳 所以不精确聊一聊你对Kafka的Log Retention的理解
kafka留存策略包括 删除和压缩两种
删除: 根据时间和大小两个方式进行删除 大小是整个partition日志文件的大小
超过的会从老到新依次删除 时间指日志文件中的最大时间戳而非文件的最后修改时间
压缩: 相同key的value只保存一个 压缩过的是clean 未压缩的dirty 压缩之后的偏移量不连续 未压缩时连续聊一聊你对Kafka的Log Compaction的理解
如上