hi,LakeShen 1、那个大状态作业之前是我们算法同学写的,是没加官网说的 query_configuration 这个配置,在我的指导下,已经加上
2、Flink 框架层我已经做了默认的配置,使用 RocksDB,并且是增量的,但是还是发现每次 Checkpoint 状态非常大 最近我梳理了下公司的大状态作业,发现通常有这么几个特性: 1、SQL 作业 2、长时间的分组滑动窗口 3、使用 distinct 等关键字的 因为是 SQL 作业,开发可能只关心了自己的业务逻辑,而没有去关注这种性能的问题,所以也就可能会导致这种大状态的问题,目前是我自己把这些大状态的作业捞出来后,都一个个联系优化后再上线的,后面我再看看怎么在框架层做到加上这种优化的配置。 Best wishes, zhisheng LakeShen <[email protected]> 于2020年3月20日周五 下午1:36写道: > Hi zhisheng, > > 我之前也遇到类似的问题,Flink 状态默认永久保留,针对这种 SQL 任务,我想到的就是设置状态空闲保留时间。 > 比如按照天来聚合的,空闲状态的最小保留时间26小时,最大空闲撞他为48小时(具体时间根据业务来设置), > 总之肯定要设置一个最小和最大的空闲状态保留时间,不可能让状态永久保留。 > > 对于 Flink 1.10 Blink planner 来说,TTL 时间就是设置的最小空闲状态保留时间,最大的空闲状态保留时间貌似没有用到。 > Flink 1.10 默认状态清理机制是 in background 了,对于 RocksDBStateBackend 来说,使用 > Compaction Filter 算法来清理。 > > 第二个就是使用增量 Checkpoint 方式吧。 > > Best wishes, > LakeShen > > > > lucas.wu <[email protected]> 于2020年3月20日周五 上午11:50写道: > > > 可以考虑自己实现一个udf ,使用bitmap或者hyperloglog去实现。 > > > > > > 原始邮件 > > 发件人:[email protected] > > 收件人:[email protected] > > 发送时间:2020年3月20日(周五) 11:44 > > 主题:Re: flink sql 去重算法 > > > > > > hi, 我发现我们生产有些使用 SQL 的 count distinct 去做去重,当作业跑了很久,作业的 Checkpoint state > > 很大(我这周就遇到过一个差不多 400G 的,导致 Checkpoint 很容易超时,并且可能会对 HDFS > > 集群的网卡也有一定的压力),我看官网文档有介绍说使用 query_configuration "> > > > https://ci.apache.org/projects/flink/flink-docs-release-1.10/dev/table/streaming/query_configuration.html > > ,除此之外不清楚大家是否还有什么其他好的解决方法? Benchao Li [email protected] 于2020年3月20日周五 > > 上午9:50写道: Hi hiliuxg, count distinct 用的MapVIew来做的去重: > > 在batch场景下,MapView的底层实现就是HashMap; > > 在streaming场景下,MapView的底层实现是MapState,因为必须要用到state+cp,才能保证任务重启后状态不会丢失。 > > hiliuxg [email protected] 于2020年3月19日周四 下午11:31写道: hi all: 请问flink > > sqlnbsp; count(disitinct)nbsp; 底层的算法是怎样的? 是bitmap ? > > 还是简单通过java的set容器去重的呢? -- Benchao Li School of Electronics > > Engineering and Computer Science, Peking University Tel:+86-15650713730 > > Email: [email protected]; [email protected] >
