Hi, 谢谢回复
对,也可以这样理解,总体分为两部分,先处理流消息,每隔15min写进hive表。然后再做mapreduce处理上步15min的数据。
目前的现状是:
第一步用flink处理,第二步是一个定时job去处理上一步的数据。
改善计划:
想整合这两步,都使用flin处理,flink新版本对hive有支持,就不用再使用MapReduce了,现在就是不知道怎样平滑地在同一个Job中执行。
-----
Thanks!
Jacob
--
Sent from: http://apache-flink.147419.n8.nabble.com/
