Mark.这个问题我也遇到过,不清楚为啥。我也很奇怪,之前我的任务经常这样,反压到直接停滞,CPU使用率也会降低。
按照正常的理解,反压时候压力高,CPU使用率应该高。 而我的情况是反压到整个任务停滞,导致CPU使用率就很低很低了。
Ada Luna 于2021年7月6日周二 下午12:05写道:
>
> 反压会导致整个Flink任务假死吗?一条Kafka数据都不消费了。持续几天,不重启不恢复的
>
> Yun Tang 于2021年7月6日周二 上午11:12写道:
> >
> > Hi,
> >
> > LocalBufferPool.requestMemorySegment
反压会导致整个Flink任务假死吗?一条Kafka数据都不消费了。持续几天,不重启不恢复的
Yun Tang 于2021年7月6日周二 上午11:12写道:
>
> Hi,
>
> LocalBufferPool.requestMemorySegment
> 这个方法并不是在申请内存,而是因为作业存在反压,因为下游没有及时消费,相关buffer被占用,所以上游会卡在requestMemorySegment上面。
>
> 想要解决还是查一下为什么下游会反压。
>
>
> 祝好
> 唐云
>
> From: Ada
Hi,
LocalBufferPool.requestMemorySegment
这个方法并不是在申请内存,而是因为作业存在反压,因为下游没有及时消费,相关buffer被占用,所以上游会卡在requestMemorySegment上面。
想要解决还是查一下为什么下游会反压。
祝好
唐云
From: Ada Luna
Sent: Tuesday, July 6, 2021 10:43
To: user-zh@flink.apache.org
Subject: Re: Flink 1.10 内存问题
"Source: test_records (2/3)" #78 prio=5 os_prio=0
tid=0x7fd4c4a24800 nid=0x21bf in Object.wait()
[0x7fd4d581a000]
java.lang.Thread.State: TIMED_WAITING (on object monitor)
at java.lang.Object.wait(Native Method)
at
下面报错调大TaskManager内存即可解决,但是我不知道为什么Flink内存不够大会出现如下假死情况。申请内存卡住。整个任务状态为RUNNING但是不再消费数据。
"Map -> to: Tuple2 -> Map -> (from: (id, sid, item, val, unit, dt,
after_index, tablename, PROCTIME) -> where: (AND(=(tablename,
CONCAT(_UTF-16LE't_real', currtime2(dt, _UTF-16LE'MMdd'))),
OR(=(after_index,
Hi
附件没有上传成功, btw 请同时提供下使用的flink版本~
Best,
Terry Wang
> 2021年7月5日 下午7:58,852701714 <852701...@qq.com.INVALID> 写道:
>
> 你好,我在本地搭建IDEA的FLINKCEP环境。
> 用官方的一些DEMO搭建后,发现执行CEP的逻辑后编译是成功的,但是没有结果输出。
> 例如附件中的demo类,执行CEP逻辑后的loginFailDataStream没有输出。
> debug发现也没有进入pattern的方法中。
>
,IDEA??FLINKCEP??
DEMOCEP
demoCEPloginFailDataStream??
debug??pattern??
??IDEAFLINKCEP??CEP??
??
----
??:
"user-zh"
没用放在lib下,是启动时通过-C动态添加udf jar,一个sql作业可能会用到很多udf,可能是不同的用户写的,所以经常会出现依赖冲突
--
发件人:yzhhui
发送时间:2021年7月5日(星期一) 14:09
收件人:user-zh@flink.apache.org ; silence
抄 送:user-zh
主 题:回复:flink sql 依赖隔离
提交任务的时候提交自己的jar就好了,这个不要放公共lib下 就OK
请教大家目前flink sql有没有办法做到依赖隔离
比如connector,format,udf(这个最重要)等,
很多情况下不同用户定义的组件会经常混用,会有很多的依赖冲突问题难以解决。
目前有没有办法做到udf的依赖隔离(比如不同的udf使用独立的jar和classloader),或者社区对此有没有什么规划
10 matches
Mail list logo