你得确认hadoop classpath返回的是完整的,正常情况下hadoop classpath这个命令会把所有的hadoop jar都包含进去的 如果报类或者方法不存在需要确认相应的jar是否存在,并且包含进去了
社区推荐hadoop classpath的方式主要是想让Flink做到hadoop free,这样在hadoop2和hadoop3都可以正常运行了 Best, Yang Jacob <[email protected]> 于2020年12月15日周二 上午9:25写道: > 谢谢回复! > > 这个文档我也有查看 > > 前几日在flink1.9-1.12各个客户端测试提交job时候发现 > 对于1.10+的版本,我手动导入export HADOOP_CLASSPATH=`hadoop > > classpath`,没有效果,各种报错,基本都是Hadoop相关类、方法不存在(NoSuchMethod之类错误),把pom文件改来改去依然无用,后来只在pom文件中导入依赖:flink-shaded-hadoop-2-uber*-*,竟然可以正常提交并运行job了。 > > > > > -- > Sent from: http://apache-flink.147419.n8.nabble.com/
