Re: Re: exception:beyond the 'PHYSICAL' memory limit

2020-05-08 文章 tiantingting5...@163.com
ception e) { e.printStackTrace(); } return prop; }); } } tiantingting5...@163.com 发件人: Xintong Song 发送时间: 2020-05-08 15:56 收件人: user-zh 主题: Re: exception:beyond the 'PHYSICAL' memory limit 这个报错是 Flink 使用的内存超出了申请的 container 大小,被 yarn 杀掉了。因为 jvm 没有报 oom,所以应该只能是 na

Re: exception:beyond the 'PHYSICAL' memory limit

2020-05-08 文章 Xintong Song
也可以尝试按照下面的方法进一步调大 native 内存。 1. taskmanager.memory.task.heap.size 进一步调小,比如 1.5g 或 1g 2. taskmanager.memory.jvm-overhead.max 调大以避免冲突,建议先调成 4g 另外你说这个问题是作业运行一段时间后发生的,具体是多长时间发生的呢?也可以考虑先把 -ytm 调得很大,观察一下 container 的内存用量是如何增长的。如果持续增长不收敛,那有可能是存在内存泄漏的问题。 Thank you~ Xintong Song On Fri, May 8, 2020 at

Re: exception:beyond the 'PHYSICAL' memory limit

2020-05-08 文章 Xintong Song
这个报错是 Flink 使用的内存超出了申请的 container 大小,被 yarn 杀掉了。因为 jvm 没有报 oom,所以应该只能是 native 内存超用。 看了一下你的配置,按照这个配置 jvm overhead 留出了 800MB+,再加上按你说的 streaming 作业没有用到 state,那 512 MB 的 manage memory 也空出来了,加在一起 native 内存有 1.3GB+ 应该是够用的。从 dump 信息来看配置是正常生效了,也没有其他子进程,按理说不应该超用才对。 建议还是再确认下是否有用到了 rocksdb,以及是否有用到其他使用

exception:beyond the 'PHYSICAL' memory limit

2020-05-07 文章 tiantingting5...@163.com
最近用flink1.10写一个流任务,大致的逻辑,是将数据清洗以后写入hbase,中间不需要保存任何状态 这里是启动脚本: export HADOOP_CONF_DIR=/etc/hadoop/conf export HADOOP_CLASSPATH=/opt/cloudera/parcels/CDH/jars/* /opt/flink/flink-1.10.0/bin/flink run -p 1 -m yarn-cluster -yqu root.crawler \ -ynm testRealTime22 \ -yD