Re: Native Kubernetes 需要访问HDFS

2020-12-21 文章 Yang Wang
给JobManager和TaskManager的 > > > > Best, > > Yang > > > > liujian <13597820...@qq.com> 于2020年12月18日周五 下午5:26写道: > > > > > Hi: > > >    在使用Native Kubernetes > > > 需要访问HDFS,已经将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar放到lib目录 > > >    但是hdfs是HA,那么就需要hdfs-site.xml等文件了,那么是如何指定这个文件呢    > > >

Re: Native Kubernetes 需要访问HDFS

2020-12-21 文章 Akisaya
> Hi: > >    在使用Native Kubernetes > > 需要访问HDFS,已经将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar放到lib目录 > >    但是hdfs是HA,那么就需要hdfs-site.xml等文件了,那么是如何指定这个文件呢    >

Re: Native Kubernetes 需要访问HDFS

2020-12-18 文章 Yang Wang
你可以在Flink client端设置HADOOP_CONF_DIR环境变量即可,这样会自动ship hadoop的配置并且挂载给JobManager和TaskManager的 Best, Yang liujian <13597820...@qq.com> 于2020年12月18日周五 下午5:26写道: > Hi: >    在使用Native Kubernetes > 需要访问HDFS,已经将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar放到lib目录 >    但是hdfs是HA,那么就需要hdfs-sit