Sent: Friday, November 12, 2021 16:13
To: user-zh
Subject: 检查点和保存点
您好:
flink的如果读hbase或者读文件,可以设置检查点和保存点么,我设置的手动保存点停止显示成功,但是去hdfs上看的savepoint的文件大小为0.从保存点启动的话文件也会从头开始执行而不是接着上次的处理进度进行,只有kafka才能设置保存点和检查点么。
| |
lei-tian
|
|
totorobabyf...@163.com
|
签名由网易邮箱大师定制
您好:
flink的如果读hbase或者读文件,可以设置检查点和保存点么,我设置的手动保存点停止显示成功,但是去hdfs上看的savepoint的文件大小为0.从保存点启动的话文件也会从头开始执行而不是接着上次的处理进度进行,只有kafka才能设置保存点和检查点么。
| |
lei-tian
|
|
totorobabyf...@163.com
|
签名由网易邮箱大师定制
K-9465
>
> 祝好
> 唐云
>
> From: 赵一旦
> Sent: Tuesday, August 18, 2020 14:38
> To: user-zh@flink.apache.org
> Subject: 能否考虑针对检查点和保存点设置不同的超时时间
>
>
> 出发点是,检查点超时失败啥的其实并不是很重要,高峰时间有时候就是会超时失败,但并不会明显反压,因此没关系。但是,有时候需要重启任务,用保存点,那么高峰时期就是无法生成保存点,然后任务失败自动从上一次检查点恢复。这导致本身
Subject: 能否考虑针对检查点和保存点设置不同的超时时间
出发点是,检查点超时失败啥的其实并不是很重要,高峰时间有时候就是会超时失败,但并不会明显反压,因此没关系。但是,有时候需要重启任务,用保存点,那么高峰时期就是无法生成保存点,然后任务失败自动从上一次检查点恢复。这导致本身高峰时期,重启在停的过程失败导致回滚了近10分(检查点周期)。
有一种思路是直接将超时设置更长时间,但这也不行,因为检查点本身是占据资源的,设置短超时就是不希望检查点占据过多资源,相当于超时完成不了就不要继续了。
但是保存点却是人工介入,需要去重启任务,可能是bug或者什么原因必须重启任务。但高峰时间按照正常
出发点是,检查点超时失败啥的其实并不是很重要,高峰时间有时候就是会超时失败,但并不会明显反压,因此没关系。但是,有时候需要重启任务,用保存点,那么高峰时期就是无法生成保存点,然后任务失败自动从上一次检查点恢复。这导致本身高峰时期,重启在停的过程失败导致回滚了近10分(检查点周期)。
有一种思路是直接将超时设置更长时间,但这也不行,因为检查点本身是占据资源的,设置短超时就是不希望检查点占据过多资源,相当于超时完成不了就不要继续了。
但是保存点却是人工介入,需要去重启任务,可能是bug或者什么原因必须重启任务。但高峰时间按照正常设置的超时可能就是无法完成保存点。