一股脑的都读进来,我想模拟数据是刚进来的状态,比如数据是5秒一条,我就5秒钟读1条
>
>发件人: Danny Chan
>日期: 星期四, 2020年12月10日 10:44
>收件人: user-zh@flink.apache.org
>主题: Re: flink 1.12如何使用RateLimiter
>您好 请问是什么场景呢 ?限速的目的是什么 ?
>
>18757141558 <18757141...@163.com> 于2020年12月9日周三 下午6:49写
我这里有个场景是这样的,kafka里已经有一段时间的数据,读取的时候会一股脑的都读进来,我想模拟数据是刚进来的状态,比如数据是5秒一条,我就5秒钟读1条
发件人: Danny Chan
日期: 星期四, 2020年12月10日 10:44
收件人: user-zh@flink.apache.org
主题: Re: flink 1.12如何使用RateLimiter
您好 请问是什么场景呢 ?限速的目的是什么 ?
18757141558 <18757141...@163.com> 于2020年12月9日周三 下午6:49写道:
&g
您好 请问是什么场景呢 ?限速的目的是什么 ?
18757141558 <18757141...@163.com> 于2020年12月9日周三 下午6:49写道:
> 在源码中找到 FlinkConnectorRateLimiter 和 GuavaFlinkConnectorRateLimiter
> kafka相关的类中没有找到这些配置
> 请问如何在api中使用RateLimiter(不修改源码方式)
在源码中找到 FlinkConnectorRateLimiter 和 GuavaFlinkConnectorRateLimiter
kafka相关的类中没有找到这些配置
请问如何在api中使用RateLimiter(不修改源码方式)