Hi! 我同意你的观点,目前自定义 sink 应该是最合适的方法。
WuKong <[email protected]> 于2021年10月14日周四 下午8:02写道: > Hi Caizhi: > > 这个应该是和我们业务处理模式有关,我们需要同一个Kafka 流 输出两个Sink 同时要保持顺序性, 这个对我们来说是个通用的功能, > 我在想如何实现这种方式, 请问有什么方案值得推荐吗? > 我想通过实现一种自定义Table 比如 在一个Jdbc > Table表的属性里 填充Kafka 属性,保持相同的Schema, 做为一个Sink 这样 方便做统一管理, 然后实现自定义Table 逻辑, > 这种方案如何? > > ------------------------------ > --- > Best, > WuKong > > > *发件人:* Caizhi Weng <[email protected]> > *发送时间:* 2021-10-14 17:50 > *收件人:* user-zh <[email protected]> > *主题:* Re: Flink-1.12 sql 同一个Job 下 如何控制 多个SQL的执行顺序 > Hi! > > “先插入 db,然后再写下游 kafka”,是说想要保证同一条数据必须写进 db 之后,才能写入 kafka 吗? > > 目前暂时没有这样的功能,如果确实很需要,可以考虑写一个 udf,udf 读到数据以后先写入 db > 再传给下游。可以描述一下为什么有这种需求,大概是什么样的使用场景吗? > > WuKong <[email protected]> 于2021年10月14日周四 下午5:11写道: > > > Hi: > > 目前遇到一个问题,我想在一个Job下 ,有两个SQL 分步都是 读取同一个Source Kafka 数据, 一个是插入Tidb 落数据, > > 另一个是写入下游Kafka, 目前想控制 先插入DB 然后再写入下游Kafka, 请问有什么方案可以实现这种方式? > > > > > > > > --- > > Best, > > WuKong > > > >
