本质上,upsert-kafka是对kafka的封装,其内部仍然是一个消息队列,只是在消费的时候,我们形成一个视图。
消息从flink进入到kafka之中,根据kafka的协议保证了at-least-once。 Best, Shengkai op <[email protected]> 于2021年4月23日周五 下午2:18写道: > > 谢谢,upsert-kafka作为sink可以保证相同key的数据放在同一个partition内,假如对相同key的更新数据,由于网络等原因后更新的值A的比先更新的值B提前发送到kafka, > 这个时候用upsert-kafka去消费数据更新这个key,收到A进行更新后,在收到B的时候会覆盖掉A对吗 > > > > > ------------------ 原始邮件 ------------------ > 发件人: > "user-zh" > < > [email protected]>; > 发送时间: 2021年4月23日(星期五) 中午12:20 > 收件人: "user-zh"<[email protected]>; > > 主题: Re: 关于upsert-kafka connector的问题 > > > > 如果数据在upsert-kafka中已经做到了按序存储(相同key的数据放在同一个partition内),那么flink消费的时候可以做到保序。 > > Best, > Shengkai
