Hi, yidan

建议排查下 Leader 频繁选举时 JobManager 是否存在频繁 GC 的情况。
如果不是还可以通过 jobmanager.log 查看是否存在其他异常。


> 2022年3月11日 下午4:34,yidan zhao <hinobl...@gmail.com> 写道:
> 
> 我指的选举主要是flink的选举,就是访问web ui后,显示正处于选举过程中。然后我一直等,一直处于选举过程中。
> 
> Biao Geng <biaoge...@gmail.com> 于2022年3月11日周五 13:00写道:
> 
>> Hi yidian,
>> 
>> 如果我没理解错的话,你提到集群没有flink作业时,zk也会有较低概率发生leader选举(你说的“重启”应该是指leader选举?)。这本身就是可能有问题的。你可以先去看看zk的日志判断一下zk重启的原因。
>> 
>> Best,
>> Biao
>> 
>> yidan zhao <hinobl...@gmail.com>于2022年3月11日 周五12:17写道:
>> 
>>> 我zk主要就flink和kafka用,还有kafka-manager,应该用的不是不多。至少zk的磁盘IO很低。
>>> 除非说是zk所在机器本身压力高勉强可能,但是zk本身压力不会高。
>>> 
>>> 
>>> Biao Geng <biaoge...@gmail.com> 于2022年3月11日周五 12:06写道:
>>> 
>>>> Hi yidian,
>>>> 
>>>> 你说的应该是ZK
>>>> 
>>>> 
>>> 
>> leader频繁选举?你可以看下ZK的日志,看看有没有更具体的原因。一般是因为ZK存储用量过大(znode数目过多),导致ZK的leader和follower数据同步失败,触发选举。
>>>> Flink HA任务数目不多的话,一般在ZK侧压力不大。你可以看看有没有其他应用也使用了ZK服务。
>>>> 
>>>> Best,
>>>> Biao
>>>> 
>>>> yidan zhao <hinobl...@gmail.com>于2022年3月11日 周五11:51写道:
>>>> 
>>>>> 如题,大家知道为啥吗。
>>>>> 一般如果集群没任务。重启问题出现概率低。
>>>>> 但如果集群本身任务多,重启后有任务恢复,很容易出现无限重启。
>>>>> 
>>>> 
>>> 
>> 

回复