Hi,

你这里的合并是用join 来做么? 这样的话,会比较耗性能。

一种做法是先消费 jdbc table, 消费完后,再切换到 kafka 上。这种要求 binlog 是幂等操作的,因为会有多处理一部分的
binlog,没法做到 精确地切换到 kafka offset 上。

另外你也可以参考下 StreamSQL 的 bootstrap 的做法:
https://streamsql.io/blog/from-apache-kafka-to-apache-pulsar

Best,
Jark


On Sun, 5 Apr 2020 at 22:48, 刘宇宝 <[email protected]> wrote:

> 大家好,
>
> 我在用 Debezium 从数据库读取最新的 binlog 写入 Kafka,比如对于 mysql_server.test.tableA 有一个
> topic “mysql_server.test.tableA”,我需要在 Flink 里实现这样的逻辑:
>
>
>   1.  先连接上 Kafka 开始消费 topic “mysql_server.test.tableA”,确保连接成功,记为
> binlog-stream,但是要暂停消费 Kafka;
>   2.  用 JDBCInputFormat 读取 test.tableA 到一个 DataStream 里,记为 table-stream;
>   3.  合并两个 streams,消费完 table-stream 后再开始消费 binlog-stream,这样可以确保 binlog 是
> *后*  应用到某个快照表上。
>
> 问题是我怎么能暂停消费 binlog-stream 呢? 我目前想到的办法是用 flink state 做一个全局状态
> startBinlog,初始值为 false:
>
>   binlog-stream -> waitOperator   ->   sinkOperator
>   table-stream -> notifyOperator -> sinkOperator
>
> 两个流被合并输出到 sinkOperator,waitOperator() 会 while loop阻塞式的检查全局状态, 等
> table-stream 消费完(不知道怎么判断消费完了。。。),  notifyOperator 修改全局状态,这样 binlog-stream
> 就能被继续消费了。
>
> 但由于 kafka consumer 如果长期阻塞不 ack 的话,kafka consumer 会被断开,所以这个做法应该是不行的。
>
> 请教怎么破?
>
> 谢谢!
>
>

回复