类似: spark-submit 支持--jars,更灵活方便, [image: image.png] melin li <libinsong1...@gmail.com> 于2022年12月8日周四 11:09写道:
> 如果是作业依赖的jar,是可以打一个flat jar。有两种场景: > 1、sql作业中,用户依赖某个connector jar,但平台不提供这个connector,需要用户上传, > 2、自定义udf 管理,依赖的jar 需要和任务一起提交。 > > yuxia <luoyu...@alumni.sjtu.edu.cn> 于2022年12月8日周四 10:06写道: > >> 为啥说 不能提交依赖的第三方jar?用户的 job 把这些包打进去不就好了吗? 还是说你指的是 sql 作业? >> >> Best regards, >> Yuxia >> >> >> 发件人: "melin li" <libinsong1...@gmail.com> >> 收件人: "user-zh" <user-zh@flink.apache.org> >> 发送时间: 星期四, 2022年 12 月 08日 上午 9:46:45 >> 主题: 提交任务不能指定第三方jar >> >> 客户端提交flink job 不能提交依赖的第三方jar,例如自定的函数jar,sql 里面的依赖connector >> jar,需要提前放置好。如果基于flink 平台化,需要动态的添加jar。目前可能的做法,就是把依赖的jar, 动态的添加作业jar 的lib目录下。 >> getJobJarAndDependencies 就是从jar 中获取依赖的jar。不是很方便。 是可以添加一个参数,指定依赖的jar, flink >> 设计各种诡异。 >> >>