可以看下你的HADOOP_CONF吗。我的配置的=/etc/hadoop/conf。
开源的Hadoop版本 这个也放了





在 2020-05-28 09:36:10,"wangweigu...@stevegame.cn" <wangweigu...@stevegame.cn> 
写道:
>    
>    确实,你只要配置好CDH的HADOOP_CONF环境变量,同时下载开源的Hadoop版本(和CDH版本相同)放到flink 
> lib下,就可以访问CDH yarn,提交作业!
>
>    目前我这边是CDH 5.16.1,Flink 1.10,提交Flink on yarn是没问题,任务运行也没问题,还可以使用Flink on 
> hive!
>    
>    flink-shaded-hadoop-2-uber-2.6.5-10.0.jar
>
>
>
> 
>发件人: 111
>发送时间: 2020-05-28 09:13
>收件人: user-zh@flink.apache.org
>主题: 回复:flink 1.9 1.10 on yarn在cdh上怎么搭建一个客户端
>Hi,
>一般只要你有yarn环境,在任意一台机器上下载flink安装包,配一下HADOOP_CONF环境变量就可以使用。
>如果是session模式:可以使用Yarn-session.sh启动yarn session集群,然后通过flink run xxx 提交程序。
>如果是per job模式:直接使用flink run即可。
>best,
>Xinghalo

回复