Kafka 架构深入
公众号 : 倔强小狮子(最新发布)
Kafka 工作流程(详细)
- Kafka 中消息是以 topic 进行分类的,生产者生产消息,消费者消费消息,都是面向 topic的。
topic 是逻辑上的概念
,而 partition 是物理上的概念,每个 partition 对应于一个 log 文件,该 log 文件中存储的就是producer 生产的数据。Producer 生产的数据会被不断追加到该log 文件末端,且每条数据都有自己的 offset(偏移量)。消费者组中的每个消费者,都会实时记录自己消费到了哪个 offset,以便出错恢复时,从上次的位置继续消费
文件存储机制
- 图细化 Topic->partition->segment
- 生产者不断追加到 .log文件末端(注意: .log文件不是日志文件,是数据文件),为了防止数据量过大, 定位数据效率低下,Kafka 采取了分片和索引机制,将每个 partition 分为多个 segment。每个 segment对应两个文件——“.index”文件和“.log”文件。这些文件位于一个文件夹下,文件夹命名规则为:规则为:topic 名称+分区序号。
.index .log 文件讲解
注意 : index 和 log 文件以当前 segment 的第一条消息的 offset 命名
index 和 log 文件讲解(网上扒的图,自己做的修改)
1.“.index”文件存储大量的索引信息,“.log”文件存储大量的数据,索引文件中的元数据(可以描述数据的数据)指向对应数据文件中
message 的物理偏移地址
(不要懵,偏移量是Kafka消息的索引,而物理偏移量是Kafka偏移量的系统地址值)。
2. 注意 : Kafka 按照 二分查找算法进行检索数据,二分查找算法百度百科
Kafka 生产者
分区策略
分区的原因
- 方便在集群中扩展,一个 topic又可以有多个 Partition 组成
- 可以提高并发,因为可以以 Partition 为单位读写了。
分区的原则
- 我们需要将 producer 发送的数据封装成一个 ProducerRecord 对象
指明 partition 的情况下,直接将指明的值直接作为 partiton 值;
3. 没有指明 partition 值但有 key 的情况下,将 key 的 hash 值与 topic 的 partition数进行取余得到 partition 值
4. 既没有 partition 值又没有 key 值的情况下,第一次调用时随机生成一个整数(后面每次调用在这个整数上自增),将这个值与 topic 可用的 partition 总数取余得到 partition
值,也就是常说的 round-robin 算法
数据可靠性保证
- 为保证 producer 发送的数据,能可靠的发送到指定的 topic,topic 的每个 partition 收到
producer 发送的数据后,都需要向 producer 发送 ack(acknowledgement 确认收到),如果producer 收到 ack,就会进行下一轮的发送,否则重新发送数据
副本数据同步策略
方案 | 优点 | 缺点 |
---|---|---|
半数以上完成同步,就发送 ack | 延迟低 | 选举新的 leader 时,容忍 n 台节点的故障,需要 2n+1个副本 |
全部完成同步,才发送ack | 选举新的 leader 时,容忍 n 台节点的故障,需要 n+1 个副本 | 延迟高 |
- Kafka 选择第二种方案
- 采用第二种方案后,设想下一个场景:leader 收到数据,所有 follower 都开始同步数据,但有一个 follower,因为某种故障,迟迟不能与 leader 进行同步,那 leader 就要一直等下去,直到它完成同步,才能发送 ack。这个问题怎么解决呢?
- Leader 维护了一个动态的 in-sync replica set (ISR),意为和 leader 保持同步的 follower 集合。当 ISR 中的 follower 完成数据的同步之后,leader 就会给 follower 发送 ack。如果 follower长时间 未 向 leader 同 步 数 据 , 则 该 ollower 将 被 踢 出 ISR , 该 时 间 阈 值 由replica.lag.time.max.ms 参数设定。Leader 发生故障之后,就会从 ISR 中选举新的 leader。
ack 应答机制
对于某些不重要的数据, 对数据的要求性不高的情况下,能够容忍数据的丢失性,不需要等待 ISR 所有follower全部接收.所以Kafka提供了三种可靠性级别,可以根据项目业务的需求权衡
acks 参数配置 :
- 参数 0 : producer 不等待 broker 的 ack,这一操作提供了一个最低的延迟,broker 一接收到还没有写入磁盘就已经返回 ack,当 broker 故障时有可能丢失数据;
- 参数 1 : producer 等待 broker 的 ack,partition 的 leader 写盘成功后返回 ack,如果在 follower同步成功之前 leader 故障,那么将会丢失数据;
- 参数 -1 或者(all):producer 等待 broker 的 ack,partition 的 leader 和 follower 全部落盘成功后才返回 ack。但是如果在 follower 同步完成后,broker 发送 ack 之前,leader 发生故障,那么会造成数据重复。(这里所说的follower是ISR中的)
故障处理细节
Log文件中的 HW 和 LEO
- LEO:每个副本的最后一个offset
- HW:指的是消费者能见到的最大的 offset,ISR 队列中最小的 LEO。
- follower 发生故障后会被临时踢出 ISR,待该 follower 恢复后,follower 会读取本地磁盘记录的上次的 HW,并将 log 文件高于 HW 的部分截取掉,从 HW 开始向 leader 进行同步。等该 follower 的 LEO 大于等于该 Partition 的 HW,即 follower 追上 leader 之后,就可以重
新加入 ISR 了。- leader 发生故障之后,会从 ISR 中选出一个新的 leader,之后,为保证多个副本之间的数据一致性,其余的 follower 会先将各自的 log 文件高于 HW 的部分截掉,然后从新的 leader
同步数据
注意:这只能保证副本之间的数据一致性,并不能保证数据不丢失或者不重复。
Exactly Once 语义(重点)
将服务器的 ACK 级别设置为-1,可以保证 Producer 到 Server 之间不会丢失数据,即 At Least Once 语义。相对的,将服务器 ACK 级别设置为 0,可以保证生产者每条消息只会被发送一次,即 At Most Once 语义。
At Least Once 可以保证数据不丢失,但是不能保证数据不重复;相对的,At Least Once可以保证数据不重复,但是不能保证数据不丢失。但是,对于一些非常重要的信息,比如说交易数据,下游数据消费者要求数据既不重复也不丢失,即 Exactly Once 语义。在 0.11 版本以前的 Kafka,对此是无能为力的,只能保证数据不丢失,再在下游消费者对数据做全局去重。对于多个下游应用的情况,每个都需要单独做全局去重,这就对性能造成了很大影响。0.11 版本的 Kafka,引入了一项重大特性:幂等性。所谓的幂等性就是指 Producer 不论向 Server 发送多少次重复数据,Server 端都只会持久化一条。幂等性结合 At Least Once 语义,就构成了 Kafka 的 Exactly Once 语义。
即:
At Least Once + 幂等性 = Exactly Once
要启用幂等性,只需要将 Producer 的参数中enable.idompotence 设置为 true 即可。
Kafka的幂等性实现其实就是将原来下游需要做的去重放在了数据上游。开启幂等性的 Producer 在初始化的时候会被分配一个 PID,发往同一Partition 的消息会附带 Sequence Number。而Broker 端会对<PID, Partition, SeqNumber>做缓存,当具有相同主键的消息提交时,Broker 只会持久化一条。
但是 PID 重启就会变化,同时不同的 Partition 也具有不同主键,所以幂等性无法保证跨
分区跨会话的 Exactly Once。
作者:专业于写这些入门到深层知识,提升我们的基本功,期待你的关注,和我一起学习
转载说明:未获得授权,禁止转载