就是一个数据同步作业,从kafka写到mongodb,上游kafka有32个分区,所以作业开了32个并行度,写mongo侧倒没关注过是否出现反压,后续再出现可以看看,这种消费不均衡有时会自动消失。我在想会不会是跟节点网络带宽波动有关。

















在 2021-09-22 19:23:35,"JasonLee" <17610775...@163.com> 写道:
>hi 
>
>
>图片看不到 我猜大概有两种情况 第一种是你的 source 本身就存在数据倾斜 某几个分区的数据量比其他分区的多 需要修改数据写入 kafka 
>分区策略让数据尽量均匀 第二种是你的下游计算的时候出现数据倾斜(或其他原因)导致任务反压到 source 端 这种情况需要根据实际的情况采用不同的解决方案 
>单纯的增加并发和改变 slot 数量没有什么效果
>
>
>Best
>JasonLee
>在2021年9月22日 09:22,casel.chen<casel_c...@126.com> 写道:
>kafka topic有32个分区,实时作业开了32个并行度消费kafka 
>topic,现在监控发现部分分区消息积压严重(如下图所示),请问会有哪些原因造成的?有什么解决办法吗?扩大分区数是不是也不能根治这种情况?
>PS: 
>每个分区消息数的确有所不均,但是同样消息数的几个分区也会出现积压不同情况(如15,16,17,18)。会是因为节点带宽受限造成的吗?当前numberOfSlots=8,改成numberOfSlots=1会有效果么?
>
>
>|
>分区 ID
>|
>客户端
>|
>最大位点
>|
>消费位点
>|
>堆积量
>|
>|
>0
>|
>n/a
>|
>14,131,397
>|
>14,130,923
>|
>474
>|
>|
>1
>|
>n/a
>|
>14,191,455
>|
>14,189,396
>|
>2,059
>|
>|
>2
>|
>n/a
>|
>14,611,826
>|
>14,610,262
>|
>1,564
>|
>|
>3
>|
>n/a
>|
>15,340,150
>|
>15,335,944
>|
>4,206
>|
>|
>4
>|
>n/a
>|
>16,379,487
>|
>16,372,237
>|
>7,250
>|
>|
>5
>|
>n/a
>|
>17,696,565
>|
>17,639,308
>|
>57,257
>|
>|
>6
>|
>n/a
>|
>19,200,829
>|
>19,129,856
>|
>70,973
>|
>|
>7
>|
>n/a
>|
>20,889,954
>|
>20,888,652
>|
>1,302
>|
>|
>8
>|
>n/a
>|
>22,643,539
>|
>22,536,468
>|
>107,071
>|
>|
>9
>|
>n/a
>|
>24,440,881
>|
>24,439,357
>|
>1,524
>|
>|
>10
>|
>n/a
>|
>26,178,250
>|
>26,073,197
>|
>105,053
>|
>|
>11
>|
>n/a
>|
>27,828,497
>|
>27,670,732
>|
>157,765
>|
>|
>12
>|
>n/a
>|
>29,284,463
>|
>29,283,105
>|
>1,358
>|
>|
>13
>|
>n/a
>|
>30,526,020
>|
>29,781,704
>|
>744,316
>|
>|
>14
>|
>n/a
>|
>31,468,482
>|
>31,467,243
>|
>1,239
>|
>|
>15
>|
>n/a
>|
>32,084,198
>|
>31,467,610
>|
>616,588
>|
>|
>16
>|
>n/a
>|
>32,393,752
>|
>32,019,836
>|
>373,916
>|
>|
>17
>|
>n/a
>|
>32,302,065
>|
>32,141,999
>|
>160,066
>|
>|
>18
>|
>n/a
>|
>31,875,063
>|
>31,874,452
>|
>611
>|
>|
>19
>|
>n/a
>|
>31,137,894
>|
>31,002,867
>|
>135,027
>|
>|
>20
>|
>n/a
>|
>30,098,926
>|
>29,930,855
>|
>168,071
>|
>|
>21
>|
>n/a
>|
>28,739,235
>|
>28,603,509
>|
>135,726
>|
>|
>22
>|
>n/a
>|
>27,221,026
>|
>27,220,821
>|
>205
>|
>|
>23
>|
>n/a
>|
>25,514,265
>|
>25,382,536
>|
>131,729
>|
>|
>24
>|
>n/a
>|
>23,779,714
>|
>23,689,296
>|
>90,418
>|
>|
>25
>|
>n/a
>|
>21,981,307
>|
>21,981,267
>|
>40
>|
>|
>26
>|
>n/a
>|
>20,237,925
>|
>20,223,880
>|
>14,045
>|
>|
>27
>|
>n/a
>|
>18,606,490
>|
>18,606,387
>|
>103
>|
>|
>28
>|
>n/a
>|
>17,178,098
>|
>17,177,971
>|
>127
>|
>|
>29
>|
>n/a
>|
>15,972,292
>|
>15,972,105
>|
>187
>|
>|
>30
>|
>n/a
>|
>15,032,355
>|
>15,032,138
>|
>217
>|
>|
>31
>|
>n/a
>|
>14,426,366
>|
>14,425,462
>|
>904
>|

回复