JesseAtSZ edited a comment on issue #1461: URL: https://github.com/apache/incubator-seatunnel/issues/1461#issuecomment-1073779087
> > > > @BenJFan最近还没有开始写代码,主要是想了解在使用 Flink CDC 的时候保证事务的严格一致:[Flink CDC](https://github.com/ververica/flink-cdc-connectors/issues/956)能够保证 MySQL 事务 > > > > ,另外针对具体的代码问题,我如何还是有更多的待解决。 > > > > > > > > > 或者写放送性事务可以安排事务处理还可以的一个事务,然后数据可以安排(可以保证重放事务或者事务日志) > > > > > > Flink CDC 支持 binlog我要修改的问题是 sink 端可以严格保证端的事务,而不是简单的通过 SQL 逐放行插入。(如果重放 SQL,但不能保证事务。例如,一个 sink 端事务在执行过程中突然停机,此时下沉端的数据有问题)。我认为这个问题有几个关键点: > > > > 1. 源端可以获取交易信息,保证订单 > > 2. sink 端可以确保事务的顺序和故障恢复时的等兵性 > > > > 我对这两个问题有一些了解: > > > > 1. 我在 debezium 中的变更日志事件中包含事务信息,但发现 Flink 的 SourceRecord 中的事务信息不完整。我正在考虑是否改进 Flink CDC 的事务顺序信息,然后通过不同的事务标识不同的时间,最后按照 gtids 的提交? > > 2. 这部电视剧的演艺如此等性主要在宣扬事务不会被重复,,可能需要引入检查故障点,我来跟踪记录这个话题。 > > 1. 事务的顺序由事务 id 决定。 > 2. CDC应该已经支持检查点。 The combination of Flink CDC and Flink JDBC has achieved idempotency. There are checkpoints on the Source side and upsert on the Sink side, however, this combination can only meet the final consistency, but can not meet the real-time consistency, (as I said above, Flink CDC and Flink JDBC will split the operations in a transaction into many SQL). The transaction order and checkpoint I mentioned here refer to the implementation under the condition of ensuring transactions. -- This is an automated message from the Apache Git Service. To respond to the message, please log on to GitHub and use the URL above to go to the specific comment. To unsubscribe, e-mail: [email protected] For queries about this service, please contact Infrastructure at: [email protected]
