1.2.1 消息和批次
- Kafka的数据单元被称为消息。
- 消息被分批次写入kafka,批次就是一组消息,这些消息属于同一个主题和分区。
1.2.3 主题和分区
- Kafka消息通过主题进行分类。
- 主题可以被分为若干个分区。
1.2.4 生产者消费者
- 会有一个或多个消费者共同读取一个主题。
- 群组保证每个分区只能被一个消费者使用。
1.2.5 broker和集群
- 一个独立的Kafka服务器被称为broker。
- broker是集群的组成部分。每个集群都有一个broker充当了集群控制器的角色。
- 一个分区从属于一个broker,该broker被称为分区的首领。
3.1 生产者
- 可以同步发送消息,也可以异步发送消息
3.5.2 使用Avro序列化
- 当负责写消息的应用程序使用了新的schema,负责读消息的应用程序可以继续处理消息而无需任何改动。
- 如果变了,原来的get方法就会返回null。
4.1.1 消费者和消费者群组
- 多余的消费者只会被闲置。
4.1.2 消费者群组和分区再均衡
- 消费者通过向被指派为群组协调器的broker发送心跳来位置它们和群组的从属关系以及它们对分区的所有权关系。
4.4 轮询
while(true) {
ConsumerRecords<String, String> records = consumer.poll(100);
for (ConsumerRecords<String, String> record : records) {
}
}
- 消费者必须持续向Kafka进行轮训,否则会被认为已经死亡。
4.6 提交和偏移量
- 消费者往一个叫做_consumer_offset的特殊主题发送消息,消息里包含每个分区的偏移量。
- 保存记录和偏移量保证原子性,数据可以不重
5.2 控制器
- 控制器其实就是一个broker,只是还负责分区首领的选举。
- 集群里第一个启动的broker通过在zookeeper里创建一个临时节点/controller让自己称为控制器。
- 控制器使用epoch来避免脑裂。
5.3 复制
- 每个分区都有一个首领副本。
- 持续请求得到的最新消息副本被称为同步的副本。
5.4 处理请求
- broker会在它所监听的每一个端口上运行一个Acceptor线程,这个线程会创建一个连接,并把它交给Processor线程去处理。
5.4.2 获取请求
- Kafka使用零复制技术向客户端发送消息,直接把消息从文件发送到网络通道。
- 还没有被足够多副本复制的消息被认为是不安全的,如果首领崩溃,可能造成数据丢失。
5.5.3 文件格式
5.5.6 清理
- 为每个键保留最新值。
6.5.2 显示提交偏移量
- 遇到可重试错误时,提交最后一个处理成功的偏移量,然后把还没有处理好的消息保存到缓冲区里。
- 暂停轮询的时间不能超过几秒钟。
- 实现仅一次最简单最常用的方法就是把结果写到一个支持唯一键的系统里。
7.3 Kafka Connect
- 以worker进程集群的方式运行。
- 数据源的连接器负责从源系统读取数据,并把数据对象提供给worker进程。
- 数据池的连接器负责从worker进程获取数据,并把它们写入目标系统。
7.3.4 深入理解Connect
- 连接器决定运行多少个任务、按照任务来拆分数据复制、从worker进程获取任务配置并将其传递下去。
- 任务负责将数据移入或移出Kafka。
- 源系统的任务对外部系统进行轮询并返回一些记录,worker进程将这些记录发送到kafka。
- worker进程是连接器和任务的容器。负责REST API、配置管理、可靠性、高可用性、伸缩性和负载均衡。
- Connect提供了一组数据API——它们包含了数据对象和用于买描述数据的schema。
- 转换器用于将数据保存到kafka。
https://blog.csdn.net/iqifenxia/article/details/121893983
Kafka Connect 中的连接器负责从源数据存储(例如数据库)获取数据,并以数据内部表示将数据传给转换器。然后,Kafka Connect 的转换器将这些源数据对象序列化到主题上。
11.1 什么是流处理
- 事件有序、不可变更数据记录、事件流可重播
11.3 流式处理的设计模式
- 单个事件处理,map模式。
- 使用本地状态。
- 多阶段处理和重分区。
- 使用外部查找实现流表连接。
- 流与流的连接,基于窗口,窗口需要维护状态。