您好,感谢您的回复。

是这样,开始可能只是20几MB,但是只要有数据流入,它就一直变大,几个小时后,就达到了几百MB,并没有发现清理或者变小的现象。operator的每个subtask的stage
zise也是均匀的。
另外,我简单的写了个demo,就是从kafka读数据,然后保存到hbase,我发现那个checkpoint的stage
size虽然只有几十k,但是也在慢慢增长,每次比前一个均匀增加。



--
Sent from: http://apache-flink.147419.n8.nabble.com/

回复