具体SQL。其实我没特别明白你表达的问题。 什么叫做释放内存,还有在之前的结果上累加。这2是什么跟什么没啥关系的东西,没听懂你表达啥。 前者是内存,后者反映的状态。如果是基于检查点/保存点重启任务,当然会保留状态,就是继续累加。
徐州州 <[email protected]> 于2021年1月4日周一 上午8:45写道: > 即使我切换了,yarn-cluster模式,我23:50,通过/opt/module/hadoop3.2.1/bin/yarn > application -kill > application_1609656886263_0043,kill掉job,第二天1:30重启,结果还是在昨天的结果上累加的,执行的kill-job好像并不能释放state,这个真的一点办法都没有了吗? > > > > ------------------ 原始邮件 ------------------ > 发件人: "赵一旦"<[email protected]>; > 发送时间: 2020年12月29日(星期二) 晚上9:35 > 收件人: "user-zh"<[email protected]>; > 主题: Re: flink 1.12 Cancel Job内存未释放(问) > > > > 不可以吧。任务是任务。taskManager是taskManager。 taskManager是提前启动好的一个进程,任务提交的时候会由 > taskManager 帮你执行。cancel后taskManager继续它自己的事情(比如等新的任务)。 > 或者考虑yarn方式,per-job模式啥的。 > > 徐州州 <[email protected]> 于2020年12月29日周二 上午9:00写道: > > > 请教一下,我flink > > > sql任务Cancel之后,隔一个小时后重启,还是接着Cancel的点进行累加计算的。我在IDEA中开发,代码中没有设置任何Checkpoints,请问我该如何在任务Cancel的时候同时释放掉job所使用的TaskManager内存?
