你是hadoop2 吗?我记得这个情况只有hadoop3才会出现
gangzi <1139872...@qq.com> 于2020年10月16日周五 上午11:22写道: > TM > 的CLASSPATH确实没有hadoop-mapreduce-client-core.jar。这个难道是hadoop集群的问题吗?还是一定要shade-hadoop包,官方不推荐shade-hadoop包了。 > > > 2020年10月16日 上午10:50,Jeff Zhang <zjf...@gmail.com> 写道: > > > > 你看看TM的log,里面有CLASSPATH的 > > > > gangzi <1139872...@qq.com> 于2020年10月16日周五 上午10:11写道: > > > >> 我按照flink官方文档的做法,在hadoop集群每个节点上都:export HADOOP_CLASSPATH =`hadoop > >> classpath`,但是报:java.lang.NoClassDefFoundError: > >> org/apache/hadoop/mapred/JobConf > >> > >> > 不知道这个是不是flink的bug,按照这个报错,是缺少:hadoop-mapreduce-client-core.jar这个jar包,但是这个包是在/usr/local/hadoop-2.10.0/share/hadoop/mapreduce/*:这个目录下的,这个目录是包含在HADOOP_CLASSPATH上的,按理说是会加载到的。 > >> > >>> 2020年10月16日 上午9:59,Shubin Ruan <zjuruanshu...@163.com> 写道: > >>> > >>> export HADOOP_CLASSPATH=**************** > >> > >> > > > > -- > > Best Regards > > > > Jeff Zhang > > -- Best Regards Jeff Zhang