Hi, 默认就是你每台机器的python指向的环境下,当然你也可以通过-pyexec指定不同的python环境
Best, Xingbo magichuang <[email protected]> 于2020年12月15日周二 下午8:02写道: > 我现在看看那个报错,flink是把requirements.txt 和 cached_dir 已经先上传到hdfs上了,因为 > /yarn/nm/usercache/root/appcache/application_1608026509770_0001/flink-dist-cache-f2899798-cfd4-42b9-95d3-204e7e34b943/418cd5a449fd6ec4b61a3cc2dca4ea08/requirements.txt > > > > /yarn/nm/usercache/root/appcache/application_1608026509770_0001/flink-dist-cache-f2899798-cfd4-42b9-95d3-204e7e34b943/418cd5a449fd6ec4b61a3cc2dca4ea08/cached_dir > 在提交的时候 去看机器上是存在的,只不过等程序挂了,这个 > /yarn/nm/usercache/root/appcache/application_1608026509770_0001文件夹就没了,所以有感觉hdfs没有问题。。 > > 现在想请教一下,flink在引入外部 python依赖时,在从离线包里面安装库的时候是安装到了哪里? > > > > > 我看报错信息: Error [Errno 13] Permission denied: '' while executing command > python setup.py egg_info > > 因为它是在 python setup.py 的时候报的权限问题 > > > > > 求大家给看看~~ 感谢 > > > > > ------------------ 原始邮件 ------------------ > > 发 件 人:magichuang <[email protected]> > > 发送时间:2020-12-15 14:15:04 > > 收 件 人:user-zh <[email protected]> > > 抄 送: > > 主 题:pyflink 引用第三库的文件出现安装权限的问题 > > > > > 请教一下大家,在本地直接python demo.py是可以运行的,但是提交到集群就会报错 > > flink 版本:1.11 flink on yarn集群模式部署, per-job模式提交,三台机器 > > > > > 提交命令:flink run -m yarn-cluster -ynm demo -ys 2 -ytm 2048 -p 2 -py demo.py > > > > > 代码截图地址:https://s3.ax1x.com/2020/12/15/rKIwE6.png > > > > > 报错截图地址:https://s3.ax1x.com/2020/12/15/rKIlNT.png > > > > > requestments.txt: IPy==1.0 cache_dir: IPy-1.00.tar.gz > > > > > 自定义udf代码: > > @udf(input_types=[DataTypes.STRING()], result_type=DataTypes.STRING()) > > def judge_ip(ip): > > import IPy > > if ip in IPy.IP('192.168.112.0/28'): > > return 'in' > > return 'out' > > > > > > > > 祝好~ > > >
