回复: Re:flink exactly once 写kafka,如果checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?

2022-11-02 文章 郑 致远
你好. 但是下一次cp发起之时,   kafka transaction 已经超时失败了,  sink端precommit之前,写入到kafka的数据, 
是不是就丢失了?

发件人: Xuyang 
发送时间: 2022年11月1日 23:08
收件人: user-zh@flink.apache.org 
主题: Re:flink exactly once 
写kafka,如果checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?

Hi, 应该会等到下一次做cp的时候再提交
在 2022-11-01 17:13:22,"郑 致远"  写道:
>大佬们好.
>flink exactly once 写kafka,如果flink 
>checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?
>kafka的transaction因为超时,abort后, 会导致abort之前写kafka的数据,丢失吗?


Re:flink exactly once 写kafka,如果checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?

2022-11-01 文章 Xuyang
Hi, 应该会等到下一次做cp的时候再提交
在 2022-11-01 17:13:22,"郑 致远"  写道:
>大佬们好.
>flink exactly once 写kafka,如果flink 
>checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?
>kafka的transaction因为超时,abort后, 会导致abort之前写kafka的数据,丢失吗?