hi,LakeShen

1、那个大状态作业之前是我们算法同学写的,是没加官网说的 query_configuration 这个配置,在我的指导下,已经加上

2、Flink 框架层我已经做了默认的配置,使用 RocksDB,并且是增量的,但是还是发现每次 Checkpoint 状态非常大

最近我梳理了下公司的大状态作业,发现通常有这么几个特性:

1、SQL 作业

2、长时间的分组滑动窗口

3、使用 distinct 等关键字的

因为是 SQL
作业,开发可能只关心了自己的业务逻辑,而没有去关注这种性能的问题,所以也就可能会导致这种大状态的问题,目前是我自己把这些大状态的作业捞出来后,都一个个联系优化后再上线的,后面我再看看怎么在框架层做到加上这种优化的配置。

Best wishes,

zhisheng

LakeShen <[email protected]> 于2020年3月20日周五 下午1:36写道:

> Hi zhisheng,
>
> 我之前也遇到类似的问题,Flink 状态默认永久保留,针对这种 SQL 任务,我想到的就是设置状态空闲保留时间。
> 比如按照天来聚合的,空闲状态的最小保留时间26小时,最大空闲撞他为48小时(具体时间根据业务来设置),
> 总之肯定要设置一个最小和最大的空闲状态保留时间,不可能让状态永久保留。
>
> 对于 Flink 1.10 Blink planner 来说,TTL 时间就是设置的最小空闲状态保留时间,最大的空闲状态保留时间貌似没有用到。
> Flink 1.10 默认状态清理机制是 in background 了,对于 RocksDBStateBackend 来说,使用
> Compaction Filter 算法来清理。
>
> 第二个就是使用增量 Checkpoint 方式吧。
>
> Best wishes,
> LakeShen
>
>
>
> lucas.wu <[email protected]> 于2020年3月20日周五 上午11:50写道:
>
> > 可以考虑自己实现一个udf ,使用bitmap或者hyperloglog去实现。
> >
> >
> > 原始邮件
> > 发件人:[email protected]
> > 收件人:[email protected]
> > 发送时间:2020年3月20日(周五) 11:44
> > 主题:Re: flink sql 去重算法
> >
> >
> > hi, 我发现我们生产有些使用 SQL 的 count distinct 去做去重,当作业跑了很久,作业的 Checkpoint state
> > 很大(我这周就遇到过一个差不多 400G 的,导致 Checkpoint 很容易超时,并且可能会对 HDFS
> > 集群的网卡也有一定的压力),我看官网文档有介绍说使用 query_configuration ">
> >
> https://ci.apache.org/projects/flink/flink-docs-release-1.10/dev/table/streaming/query_configuration.html
> > ,除此之外不清楚大家是否还有什么其他好的解决方法? Benchao Li [email protected] 于2020年3月20日周五
> > 上午9:50写道:  Hi hiliuxg,   count distinct 用的MapVIew来做的去重:
> > 在batch场景下,MapView的底层实现就是HashMap;
> > 在streaming场景下,MapView的底层实现是MapState,因为必须要用到state+cp,才能保证任务重启后状态不会丢失。
> >  hiliuxg [email protected] 于2020年3月19日周四 下午11:31写道:    hi all:   请问flink
> > sqlnbsp; count(disitinct)nbsp; 底层的算法是怎样的? 是bitmap ?
> >  还是简单通过java的set容器去重的呢?     --   Benchao Li  School of Electronics
> > Engineering and Computer Science, Peking University  Tel:+86-15650713730
> > Email: [email protected]; [email protected]
>

回复