Re: Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 JasonLee
hi 把 -d 参加加上用分离方式启动 应该就可以了 - Best Wishes JasonLee -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 amen...@163.com
execution.attached的值是true,execution.target值是yarn-per-job best, amenhub 发件人: amen...@163.com 发送时间: 2020-11-13 11:30 收件人: user-zh 主题: Re: Re: Flink与Yarn的状态一致性问题 hi 1.确定提交的是Per-job模式,提交命令是./bin/flink run -m yarn-cluster xxx,并且从Flink web ui中的Job Manager -> Configuration观察到execution.target值为yarn-

Re: Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 amen...@163.com
execution.attached的值是true,execution.target值是yarn-per-job best, amenhub 发件人: amen...@163.com 发送时间: 2020-11-13 11:30 收件人: user-zh 主题: Re: Re: Flink与Yarn的状态一致性问题 hi 1.确定提交的是Per-job模式,提交命令是./bin/flink run -m yarn-cluster xxx,并且从Flink web ui中的Job Manager -> Configuration观察到execution.target值为yarn-

Re: Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 JasonLee
hi 从你的描述看确实起的是per-job模式,per-job模式目前应该是没有这个问题的.可以再看下你的UI上execution.attached 的值是什么吗? 再有启动任务的时候是否加了 -d 参数 - Best Wishes JasonLee -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 tison
detached 是另一个坑,因为你 attached 的时候需要等 client 去 request status 才会触发状态变化,但是普通的 execute 应该也是会自动的去拉结果的。 可以看下下列关键日志的打印情况 - log.info("Job {} reached globally terminal state {}.", ...) - LOG.debug("Shutting down cluster because someone retrieved the job result."); - LOG.info("Shutting {} down with

Re: Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 amen...@163.com
-11-13 11:22 收件人: user-zh 主题: Re: Flink与Yarn的状态一致性问题 hi 1,首先确定你提交的是per-job模式吗? 2,你说的任务状态是说jm还在任务在failover,还是任务确实是挂了,jm已经退出了? - Best Wishes JasonLee -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 amen...@163.com
-11-13 11:22 收件人: user-zh 主题: Re: Flink与Yarn的状态一致性问题 hi 1,首先确定你提交的是per-job模式吗? 2,你说的任务状态是说jm还在任务在failover,还是任务确实是挂了,jm已经退出了? - Best Wishes JasonLee -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 JasonLee
hi 1,首先确定你提交的是per-job模式吗? 2,你说的任务状态是说jm还在任务在failover,还是任务确实是挂了,jm已经退出了? - Best Wishes JasonLee -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re:Re: Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 kingdomad
> > > >发件人: tison >发送时间: 2020-11-13 11:01 >收件人: user-zh >主题: Re: Flink与Yarn的状态一致性问题 >PerJob 模式下,在作业完全挂掉之后,是会上报 YARN RM 应用自己失败的状态的。 > >当然,在 FLINK 察觉自己 FAILED 到上报给 YARN 是有一定的时延的,也有可能因为网络等问题上报失败。 > >你这个是短暂的不一致时间窗口,还是说 FLINK 集群已经退了,YARN 的状态还没有变化呢? > >

Re: Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 amen...@163.com
st, amenhub 发件人: tison 发送时间: 2020-11-13 11:01 收件人: user-zh 主题: Re: Flink与Yarn的状态一致性问题 PerJob 模式下,在作业完全挂掉之后,是会上报 YARN RM 应用自己失败的状态的。 当然,在 FLINK 察觉自己 FAILED 到上报给 YARN 是有一定的时延的,也有可能因为网络等问题上报失败。 你这个是短暂的不一致时间窗口,还是说 FLINK 集群已经退了,YARN 的状态还没有变化呢? Best, tison. zhisheng 于2020年11月12日周四 下午8:17写道:

Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 tison
PerJob 模式下,在作业完全挂掉之后,是会上报 YARN RM 应用自己失败的状态的。 当然,在 FLINK 察觉自己 FAILED 到上报给 YARN 是有一定的时延的,也有可能因为网络等问题上报失败。 你这个是短暂的不一致时间窗口,还是说 FLINK 集群已经退了,YARN 的状态还没有变化呢? Best, tison. zhisheng 于2020年11月12日周四 下午8:17写道: > 同遇见过这个问题,所以作业监控告警的时候一般都是拿作业所有的 task 级别的状态,而不是简单的 yarn 状态 > > hdxg1101300123

Re: Flink与Yarn的状态一致性问题

2020-11-12 文章 zhisheng
同遇见过这个问题,所以作业监控告警的时候一般都是拿作业所有的 task 级别的状态,而不是简单的 yarn 状态 hdxg1101300123 于2020年11月12日周四 下午8:07写道: > 可以设置检查点失败任务也失败 > > > > 发自vivo智能手机 > > hi everyone, > > > > 最近在使用Flink-1.11.1 On Yarn Per > Job模式提交简单的kafka->mysql任务时,发现当有脏数据或mysql主键限制等等原因导致Flink任务状态置为Failed时,Yarn > application仍处于运行状态 > > > >

回复: Flink与Yarn的状态一致性问题

2020-11-12 文章 hdxg1101300123
可以设置检查点失败任务也失败 发自vivo智能手机 > hi everyone, > > 最近在使用Flink-1.11.1 On Yarn Per > Job模式提交简单的kafka->mysql任务时,发现当有脏数据或mysql主键限制等等原因导致Flink任务状态置为Failed时,Yarn > application仍处于运行状态 > > 疑问是Flink任务处于Failed或Finished时,不会反馈自身状态给Yarn吗?期待大佬解惑,谢谢 > > best, > amenhub

Flink与Yarn的状态一致性问题

2020-11-11 文章 amen...@163.com
hi everyone, 最近在使用Flink-1.11.1 On Yarn Per Job模式提交简单的kafka->mysql任务时,发现当有脏数据或mysql主键限制等等原因导致Flink任务状态置为Failed时,Yarn application仍处于运行状态 疑问是Flink任务处于Failed或Finished时,不会反馈自身状态给Yarn吗?期待大佬解惑,谢谢 best, amenhub

Flink与Yarn的状态一致性问题

2020-11-09 文章 amen...@163.com
hi everyone, 最近在使用Flink-1.11.1 On Yarn Per Job模式提交简单的kafka->mysql任务时,发现当有脏数据或mysql主键限制等等原因导致Flink任务状态置为Failed时,Yarn application仍处于运行状态 疑问是Flink任务处于Failed或Finished时,不会反馈自身状态给Yarn吗?期待大佬解惑,谢谢 best, amenhub