我理解应该是平台统一配置在 flink-conf.yaml 即可, 不需要用户单独配置相关参数.
Best, Feng On Sun, Feb 4, 2024 at 11:19 AM 阿华田 <a15733178...@163.com> wrote: > 看了一下 这样需要每个任务都配置listener,做不到系统级的控制,推动下游用户都去配置listener比较困难 > > > | | > 阿华田 > | > | > a15733178...@163.com > | > 签名由网易邮箱大师定制 > > > 在2024年02月2日 19:38,Feng Jin<jinfeng1...@gmail.com> 写道: > hi, > > 可以参考下 OpenLineage[1] 的实现, 通过 Flink 配置JobListener 拿到 Transformation 信息,然后解析 > Source 和 Sink 拿到血缘信息。 > > [1] > > https://github.com/OpenLineage/OpenLineage/blob/main/integration/flink/src/main/java/io/openlineage/flink/OpenLineageFlinkJobListener.java > > Best, > Feng > > > On Fri, Feb 2, 2024 at 6:36 PM 阿华田 <a15733178...@163.com> wrote: > > > > > 打算做flink任务画像的事情,主要是用户跑的datastream作业,在我们的实时平台运行起来之后希望能审计到使用了哪些kafka的topic,写入了哪些中间件(mysql,hbase > ,ck 等等),大佬们有什么好的方式吗,目前flinksql可以通过sql获取到,用户自己编译的flink任务包去执行datastream作业获取不到 > | | > 阿华田 > | > | > a15733178...@163.com > | > 签名由网易邮箱大师定制 > > >