作业数据流是 kafka -> flink ->
http/prometheus,目前这类型的作业很多,但是就只有那几个有问题,而且是必现,每次都只能重启,然后看着线程数上涨。。 我再debug看看~

Paul Lam <[email protected]> 于2020年12月8日周二 下午6:00写道:

> Hi,
>
> 我之前说的多个集群的情况主要指写入数据到 HDFS。如果只有 checkpoint 依赖 HDFS 而出现这种情况的话,的确是非常奇怪。
>
> Best,
> Paul Lam
>
> > 2020年12月8日 11:03,zilong xiao <[email protected]> 写道:
> >
> > Hi Paul,
> >    线程名称是一模一样的,都是user1@cluserA,HDFS client版本对于用户来说是透明的,作业使用的是Flink
> >
> 1.11版本,该Flink版本使用HDFS版本好像是2.8.1,在Flink中和集群有持续交互的就只能想到checkpoint,开了DEBUG日志也没能找到root
> > cause。。
> >
> >    另外 您说的“线程个数应该和用到的 HDFS 集群数目相同”不是很理解,作业只能提交到一个具体的集群吧?
> >
> > Paul Lam <[email protected]> 于2020年12月8日周二 上午10:45写道:
> >
> >> 我记得 LeaseRenewer 是 JVM 级别的,线程个数应该和用到的 HDFS 集群数目相同。
> >>
> >> 你看看它们具体的线程名是不是完全相同(比如都是 user1@cluserA)?还有 HDFS client 的版本是什么?
> >>
> >> Best,
> >> Paul Lam
> >>
> >>> 2020年12月7日 18:11,zilong xiao <[email protected]> 写道:
> >>>
> >>> 在生产中发现有个别Flink SQL 1.11作业的container线程数很高,查看Thread
> Dump发现有很多名为LeaseRenewer
> >>> 的线程处于TIMED_WAITING状态,目前只能复现其现象,但是无法定位原因,不知道社区是否有类似经历的小伙伴呢?
> >>>
> >>> Flink version: 1.11
> >>> State backend:filesystem
> >>> checkpoint interval: 60s
> >>
> >>
>
>

回复