当前位置: 首页>编程语言>正文

关于 Flink checkpoint,都在这里(一)

# 1:什么是 checkpoint?

我们常常这样描述:“Flink 在执行 checkpoint 过程中…”。通过语境我们可以了解到 checkpoint 是 Flink Job 的一个动作(或者说 Flink 的一种机制)用来把各个算子的状态(state)存储到状态后端(state-backend)中。Flink 会周期性的执行 checkpoint 以保证状态后端中的状态保持最新。

当 Flink job 出现异常时(如,网络问题导致其中一个 TaskManager 失联),Flink 基于 checkpoint 生成的状态快照进行状态恢复,从而保证数据结果的一致性。我们称这个过程为容错(fault tolerance,即 job 出现异常后能够自动恢复)

关于 Flink checkpoint,都在这里(一),第1张
checkpoint

举个例子,假设我们 1)有一个 Kafka topic 有事件序列 e = [1, 2, 3, 4, 5, 6, 7],Flink source 消费该 topic,然后发送给下游的 keyBy 算子。2)keyBy 算子通过 e % 2 生成 key 并发送到下游。3)下游 reduce 算子计算 sum,并将结果发送给 sink ,4)然后在控制台输出。

这个示例中 source、reduce 都包含了状态:source 中包含了 ListState 来存储当前消费 Kafka topic 的 offset,reduce 算子中包含了 ValueState 存储当前 sum 的计算结果。我们当然可以通过 List<Long> 来保存 Kafka topic offset,通过 long 保存 sum 的计算结果。那么 Flink 就无法感知到算子中是否有状态需要持久化到状态后端,异常时也无法进行状态的恢复。

我们假设 offset=5 时任务出现了异常,reduce 中的状态将会丢失。job 恢复后将从 e = 6 开始消费,reduce 的 sum 结果将会因之前的状态丢失导致出现错误的结果。但是如果使用了状态与 checkpoint 机制,则可以恢复之前的计算结果,从而保证恢复后的结果数据的准确性。

总的来说,checkpoint 是 Flink 容错机制,基于 Flink State 一起可以帮助用户在 job 异常时进行状态恢复。那么其他的分布式计算框架(如,Spark)是如何进行容错的呢?下一篇对了比 Spark Stream、Storm、Flink 容错机制,来了解实时方向上,主流的开源框架都是如何保证容错的。

以上示例可以从 github 中下载代码进行测试。

作者:可可 @ 欢迎邮件联系我


https://www.xamrdz.com/lan/5q22016706.html

相关文章: