你不需要修改CMD,entrypoint默认是docker-entrypoint.sh[1],是支持history-server的,只要传一个history-server的参数就可以了

[1].
https://github.com/apache/flink-docker/blob/dev-master/docker-entrypoint.sh

Best,
Yang


liujian <[email protected]> 于2020年12月20日周日 下午12:45写道:

> Thanks,&nbsp;
> &nbsp; &nbsp; &nbsp;但是我需要访问historyServer,那么应该需要如何操作我将flink
> 1.12.0的Dockerfile 修改成CMD ["history-server"]&nbsp; 并暴露8082端口,但是好像达不到这个效果
>
>
>
>
> ------------------&nbsp;原始邮件&nbsp;------------------
> 发件人:
>                                                   "user-zh"
>                                                                     <
> [email protected]&gt;;
> 发送时间:&nbsp;2020年12月19日(星期六) 晚上9:35
> 收件人:&nbsp;"user-zh"<[email protected]&gt;;
>
> 主题:&nbsp;Re: flink-shaded-hadoop-2-uber版本如何选择
>
>
>
> 你只需要在Flink Client端设置HADOOP_CONF_DIR的环境就可以了
> Flink
>
> Client会自动把hdfs-site.xml、core-site.xml文件通过创建一个单独ConfigMap,然后挂载给JobManager和TaskManager的
> 同时这两个配置也会自动加载到classpath下,只需要lib下放了flink-shaded-hadoop,就不需要做其他事情,可以直接访问hdfs的
>
>
> Best,
> Yang
>
> liujian <[email protected]&gt; 于2020年12月19日周六 下午8:29写道:
>
> &gt;
> &gt;
> HDFS是Ha模式,需要指定hdfs-site.xml,这该怎么处理,使用configMap还是将hdfs-site.xml放入到$FLINK_HOME/conf目录下
> &gt;
> &gt;
> &gt; ------------------&amp;nbsp;原始邮件&amp;nbsp;------------------
> &gt; 发件人:
> &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
> "user-zh"
> &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
> <
> &gt; [email protected]&amp;gt;;
> &gt; 发送时间:&amp;nbsp;2020年12月16日(星期三) 晚上7:21
> &gt; 收件人:&amp;nbsp;"superainbower"<[email protected]&amp;gt;;
> &gt; 抄送:&amp;nbsp;"user-zh"<[email protected]&amp;gt;;
> &gt; 主题:&amp;nbsp;Re: flink-shaded-hadoop-2-uber版本如何选择
> &gt;
> &gt;
> &gt;
> &gt;
> &gt;
> 如果是在K8s上面访问hdfs,还是需要把flink-shaded-hadoop放到lib目录下,因为目前hadoop的FileSystem并不支持plugin加载
> &gt;
> &gt; Best,
> &gt; Yang
> &gt;
> &gt; superainbower <[email protected]&amp;gt; 于2020年12月16日周三 下午6:19写道:
> &gt;
> &gt; &amp;gt; 借楼请问下,部署到K8S上怎么访问HDFS呢,目前我还是把shaded的jar打到镜像里面去
> &gt; &amp;gt; 在2020年12月16日 10:53,Yang Wang <[email protected]&amp;gt;
> 写道:
> &gt; &amp;gt;
> &gt; &amp;gt; 以flink-shaded-hadoop-2-uber的2.8.3-10.0为例
> &gt; &amp;gt;
> &gt; &amp;gt; 2.8.3指的hadoop的版本,10.0指定的flink-shaded[1]的版本
> &gt; &amp;gt;
> &gt; &amp;gt;
> &gt;
> 社区从1.10开始不再推荐使用flink-shaded-hadoop的方式,而且通过设置HADOOP_CLASSPATH环境变量来提交[2],
> &gt; &amp;gt; 这样可以让Flink变得hadoop free,从而同时支持hadoop2和hadoop3
> &gt; &amp;gt;
> &gt; &amp;gt; 如果你还坚持使用flink-shaded-hadoop,那就建议使用最新的版本就可以了2.8.3-10.0
> &gt; &amp;gt;
> &gt; &amp;gt;
> &gt; &amp;gt; [1]. https://github.com/apache/flink-shaded
> &gt; &amp;gt; [2].
> &gt; &amp;gt;
> &gt; &amp;gt;
> &gt;
> https://ci.apache.org/projects/flink/flink-docs-master/deployment/resource-providers/yarn.html#preparation
> &gt
> <https://ci.apache.org/projects/flink/flink-docs-master/deployment/resource-providers/yarn.html#preparation&gt>;
> &amp;gt
> &gt; <
> https://ci.apache.org/projects/flink/flink-docs-master/deployment/resource-providers/yarn.html#preparation&amp;gt&gt
> ;
> &gt; ;
> &gt; &amp;gt; Best,
> &gt; &amp;gt; Yang
> &gt; &amp;gt;
> &gt; &amp;gt; 赢峰 <[email protected]&amp;gt; 于2020年12月11日周五 上午8:45写道:
> &gt; &amp;gt;
> &gt; &amp;gt; &amp;gt; flink-shaded-hadoop-2-uber版本如何选择?
> &gt; &amp;gt; &amp;gt;
> &gt; &amp;gt; &amp;gt;
> &gt; &amp;gt; &amp;gt; xxx-xxx 分别表示什么意思?
> &gt; &amp;gt; &amp;gt;
> &gt; &amp;gt; &amp;gt;
> &gt; &amp;gt; &amp;gt;
> &gt; &amp;gt;
> &gt; &amp;gt;

回复