Hi,

谢谢回复

对,也可以这样理解,总体分为两部分,先处理流消息,每隔15min写进hive表。然后再做mapreduce处理上步15min的数据。
      
目前的现状是:
第一步用flink处理,第二步是一个定时job去处理上一步的数据。
    
改善计划:

想整合这两步,都使用flin处理,flink新版本对hive有支持,就不用再使用MapReduce了,现在就是不知道怎样平滑地在同一个Job中执行。




-----
Thanks!
Jacob
--
Sent from: http://apache-flink.147419.n8.nabble.com/

回复