今天就跟大家聊聊有关kafka的多分区watermark机制是怎么样的,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。watermark依赖的背景,可以是:事件时间,必须要在事件时间这个概念之上理解watermark。watermark更形象的理解可以理解为时间序列心跳吧,驱动流进行,而不是延迟时间,比如6s,这个不是watermark。watermark就像心跳一样,驱动着流程序基于事件时间进行处理,watermark之所以说类似于序列心跳,是因为它携带了时间戳 t。Watermark(t)意味着算子当前的事件时间已经到达了时间 t,任何时间戳小于t的事件都不会再发过来,也即是时间戳小于t的事件就应该丢弃了。上面的可以说是针对单并行度的流,只有一个流水线,怎么着也玩不出彩来。watermark会在每个并行度的source处或者其他算子内部添加,然后继续向前流动,假如流程序不存在shuffle那就没啥好说的了,每个单独的实例单独进行,这个要想理解要结合前面的一篇文章:结合Spark讲一下Flink的runtime
存在shuffle的话,就是一个算子会存在多个输入的话,当前事件时间就采用最小的事件时间。kafkasourcekafka作为数据源的时候,假如消费的是多个topic或者多分区,那么由于分区消费是并行进行的,会打破数据在每个分区的数据性,这个是客户端性质决定的,除非你是一个消费者对应于一个 香港云主机分区。这种情况下,可以使用Kafka-partition-aware watermark生成器,该生成器会在每个kafka消费者内部,为每个分区生成watermark,最后每个分区的watermark会想Stream shuffle watermark的合并机制一样合并。代码示例FlinkKafkaConsumer09
kafkaSource.assignTimestampsAndWatermarks(new AscendingTimestampExtractor
@Override
public long extractAscendingTimestamp(MyType element) {
return element.eventTimestamp();
}
});
DataStream
相关推荐: docker run启动的容器挂掉了数据怎么解决
这篇文章主要介绍了docker run启动的容器挂掉了数据怎么解决的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇docker run启动的容器挂掉了数据怎么解决文章都会有所收获,下面我们一起来看看吧。情景描述在某个系统中,功能性的…
免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。