如果使用 代码编写的话,可以调用 FlinkKafkaConsumer010#setRateLimiter,其中可以使用 
GuavaFlinkConnectorRateLimiter 类。
目前也有一个相关的issue:https://issues.apache.org/jira/browse/FLINK-17919
祝好
Hailong Wang
在 2020-09-27 16:22:00,"me" <m...@lishiyu.cn> 写道:
>当kafka有大量数据积压并且flink冷启动,flink端读取kafka有没有限流的参数?
>kafka积压了2亿数据,flink启动后接着之前的状态读取,怎么控制flink的限流?

回复