我也觉得双流 JOIN 或者 interval join 应该可以解决你的需求。
On Mon, 15 Jun 2020 at 19:41, Benchao Li <[email protected]> wrote: > Hi, > 听起来你的需求应该就是做一个双流join,可以做一个基于事件时间的双流join[1] > > [1] > > https://ci.apache.org/projects/flink/flink-docs-master/dev/table/streaming/joins.html#interval-joins > > 阿华田 <[email protected]> 于2020年6月15日周一 下午6:31写道: > > > 建议使用缓存,因为b流会延迟20分钟到,所以将a流的数据缓存20分钟,时间到了在和b流进行关联,缓存推荐使用谷歌的cache, > > com.google.common.cache; > > > > > > | | > > 阿华田 > > | > > | > > [email protected] > > | > > 签名由网易邮箱大师定制 > > > > > > 在2020年06月15日 14:41,steven chen<[email protected]> 写道: > > hi: > > 1.项目中我们会汇集不同来源的消息的,然和合并进行统计并输出结果。 > > 2. 有topic a 是所有的用户pv日志, topic b > > 是所有用户uv日志,现在1个job同时消费a,b2个消息,并将pv,uv的结果同时输出到下一级的kafka topic c中, > > 问题:当a 消息 提前到达,b 消息晚20分钟到达,job 在工作时如何保证2个topic 数据对齐,或者说2边数据进行关联整合? > > 相当于2条消息处理后合并成1条往下游sink ,如何保证数据数据a和b对应的上? > > > > > > > > > > >
