Hi, 谢谢回复
对,也可以这样理解,总体分为两部分,先处理流消息,每隔15min写进hive表。然后再做mapreduce处理上步15min的数据。 目前的现状是: 第一步用flink处理,第二步是一个定时job去处理上一步的数据。 改善计划: 想整合这两步,都使用flin处理,flink新版本对hive有支持,就不用再使用MapReduce了,现在就是不知道怎样平滑地在同一个Job中执行。 ----- Thanks! Jacob -- Sent from: http://apache-flink.147419.n8.nabble.com/