你好. 但是下一次cp发起之时,   kafka transaction 已经超时失败了,  sink端precommit之前,写入到kafka的数据, 
是不是就丢失了?
________________________________
发件人: Xuyang <xyzhong...@163.com>
发送时间: 2022年11月1日 23:08
收件人: user-zh@flink.apache.org <user-zh@flink.apache.org>
主题: Re:flink exactly once 
写kafka,如果checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?

Hi, 应该会等到下一次做cp的时候再提交
在 2022-11-01 17:13:22,"郑 致远" <zehongzheng2...@hotmail.com> 写道:
>大佬们好.
>flink exactly once 写kafka,如果flink 
>checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?
>kafka的transaction因为超时,abort后, 会导致abort之前写kafka的数据,丢失吗?

回复