Hi,

默认就是你每台机器的python指向的环境下,当然你也可以通过-pyexec指定不同的python环境

Best,
Xingbo

magichuang <[email protected]> 于2020年12月15日周二 下午8:02写道:

> 我现在看看那个报错,flink是把requirements.txt  和  cached_dir  已经先上传到hdfs上了,因为
> /yarn/nm/usercache/root/appcache/application_1608026509770_0001/flink-dist-cache-f2899798-cfd4-42b9-95d3-204e7e34b943/418cd5a449fd6ec4b61a3cc2dca4ea08/requirements.txt
>
>
>  
> /yarn/nm/usercache/root/appcache/application_1608026509770_0001/flink-dist-cache-f2899798-cfd4-42b9-95d3-204e7e34b943/418cd5a449fd6ec4b61a3cc2dca4ea08/cached_dir
> 在提交的时候  去看机器上是存在的,只不过等程序挂了,这个
> /yarn/nm/usercache/root/appcache/application_1608026509770_0001文件夹就没了,所以有感觉hdfs没有问题。。
>
> 现在想请教一下,flink在引入外部  python依赖时,在从离线包里面安装库的时候是安装到了哪里?
>
>
>
>
> 我看报错信息:  Error [Errno 13] Permission denied: '' while executing command
> python setup.py egg_info
>
> 因为它是在  python setup.py  的时候报的权限问题
>
>
>
>
> 求大家给看看~~    感谢
>
>
>
>
> ------------------ 原始邮件 ------------------
>
> 发 件 人:magichuang <[email protected]>
>
> 发送时间:2020-12-15 14:15:04
>
> 收 件 人:user-zh <[email protected]>
>
> 抄 送:
>
> 主 题:pyflink 引用第三库的文件出现安装权限的问题
>
>
>
>
> 请教一下大家,在本地直接python demo.py是可以运行的,但是提交到集群就会报错
>
> flink 版本:1.11 flink on yarn集群模式部署, per-job模式提交,三台机器
>
>
>
>
> 提交命令:flink run -m yarn-cluster -ynm demo  -ys 2 -ytm 2048 -p 2 -py demo.py
>
>
>
>
> 代码截图地址:https://s3.ax1x.com/2020/12/15/rKIwE6.png
>
>
>
>
> 报错截图地址:https://s3.ax1x.com/2020/12/15/rKIlNT.png
>
>
>
>
> requestments.txt:    IPy==1.0        cache_dir:  IPy-1.00.tar.gz
>
>
>
>
> 自定义udf代码:
>
> @udf(input_types=[DataTypes.STRING()], result_type=DataTypes.STRING())
>
> def judge_ip(ip):
>
>         import IPy
>
>         if ip in IPy.IP('192.168.112.0/28'):
>
>             return 'in'
>
>         return 'out'
>
>
>
>
>
>
>
> 祝好~
>
>
>

回复