Hi,
根据你的描述你应该使用的 session cluster,并通过命令行提交作业,这种情况下的确只能在日志中看到 job id,并且级别的是 INFO.
可以尝试通过 RestAPI 提交任务[1],这种方式会返回 JobID。但是整体提交流程改动比较大,建议把 client 侧的日志级别调整成
INFO,不会打印非常多的日志

[1]
https://nightlies.apache.org/flink/flink-docs-master/docs/ops/rest_api/#jars-jarid-run

Best,
Weihua


On Mon, Jul 4, 2022 at 7:05 PM Lijie Wang <wangdachui9...@gmail.com> wrote:

> Hi,
> 拿不到任务 id 是指 Flink job id 么?
> 另外你的部署方式是什么样子的? 如果是 session/perjob 这种在 client 端编译 job graph,你可以在 main 方法中打印
> job id 的
>
> Best,
> Lijie
>
> sherlock zw <zw30...@live.com> 于2022年7月4日周一 17:51写道:
>
> > 目前我需要去监控已经提交的flink任务,
> >
> 但是通过命令行方式提交的话拿不到任务id,只能通过INFO级别的日志过滤出来,但是我们的环境里面的日志界别是WARN,看不到任务id的日志输出,所以想问下除了命令行的方式提交任务还有其他方式吗,例如有和Spark类似的SparkLaunch一样的jar提交的方式吗?希望大佬指点下,谢谢。
> >
> >
> >
>

回复