回复:flink 已完成job等一段时间会消失

2024-04-08 文章 spoon_lz
有一个过期时间的配置
https://nightlies.apache.org/flink/flink-docs-release-1.19/docs/deployment/config/#jobstore-expiration-time



| |
spoon_lz
|
|
spoon...@126.com
|


 回复的原邮件 
| 发件人 | ha.fen...@aisino.com |
| 发送日期 | 2024年04月9日 10:38 |
| 收件人 | user-zh |
| 主题 | flink 已完成job等一段时间会消失 |
在WEBUI里面,已完成的任务会在completed jobs里面能够看到,过了一会再进去看数据就没有了,是有什么配置自动删除吗?


Re:Flink Native Kubernetes Resources Requests and Limits

2022-08-28 文章 spoon_lz
看了下关于资源比例的参数是1.15版本才有的,1.13是没有的
内存的配置参数是 kubernetes.taskmanager.memory.limit-factor


https://nightlies.apache.org/flink/flink-docs-release-1.15/docs/deployment/config/#kubernetes-taskmanager-memory-limit-factor




On 08/28/2022 11:55,casel.chen wrote:
内存有相应的requests和limits参数吗?找了一圈没有发现,都设的是requests=limits,是为了作业高可靠保障么?如果要能够调整内存使用大小的话应该要如何实现呢?实际业务朝夕现象很鲜明,希望作业在低峰期能空出一些内存资源来

















在 2022-08-05 10:42:48,"spoon_lz"  写道:


可以尝试使用个参数:
kubernetes.taskmanager.cpu.limit-factor


https://nightlies.apache.org/flink/flink-docs-release-1.15/docs/deployment/config/#kubernetes-taskmanager-cpu-limit-factor


On 08/5/2022 09:24,casel.chen wrote:
我通过flink native kubernetes部署flink 
1.13.2作业到k8s上发现资源实际使用量远小于请求量,特别是CPU,启动的时候CPU消耗多一些,运行一段时间后CPU消耗显著降低,如果设置CPU值较小的话又会造成作业启动慢的问题,查了一下当前实现中将资源requests恒等于limits,请问该如何分别设置cpu和内存的requests和limits以提高资源使用效率呢?谢谢!


Re:Flink Native Kubernetes Resources Requests and Limits

2022-08-04 文章 spoon_lz


可以尝试使用个参数:
kubernetes.taskmanager.cpu.limit-factor


https://nightlies.apache.org/flink/flink-docs-release-1.15/docs/deployment/config/#kubernetes-taskmanager-cpu-limit-factor


On 08/5/2022 09:24,casel.chen wrote:
我通过flink native kubernetes部署flink 
1.13.2作业到k8s上发现资源实际使用量远小于请求量,特别是CPU,启动的时候CPU消耗多一些,运行一段时间后CPU消耗显著降低,如果设置CPU值较小的话又会造成作业启动慢的问题,查了一下当前实现中将资源requests恒等于limits,请问该如何分别设置cpu和内存的requests和limits以提高资源使用效率呢?谢谢!

回复: flink sql是否支持动态创建sink table?

2021-09-22 文章 spoon_lz


“在 datastream api 任务是可以的” 
这样是可行的吗,我的理解flink是要先构建好graph之后才能运行,graph构建好之后可能没办法再动态调整了,除非写一个自定义的sink,自己实现逻辑


在2021年09月22日 19:25,JasonLee<17610775...@163.com> 写道:
hi


这个我理解在 SQL 任务里面目前是没办法做到的 在 datastream api 任务是可以的


Best
JasonLee
在2021年9月22日 11:35,酷酷的浑蛋 写道:
我也有这个需求,意思就是topic里实时新增了一种日志,然后想动态创建对应新的日志的topic表,并写入到新的topic表,在一个任务中完成


| |
apache22
|
|
apach...@163.com
|
签名由网易邮箱大师定制


在2021年09月22日 11:23,Caizhi Weng 写道:
Hi!

不太明白这个需求,但如果希望发送给不同的 topic,需要给每个 topic 都定义 DDL。

如果是因为各 topic 之间的 schema 重复度比较高,只有些许字段以及 topic 名称等不同,可以看一下 DDL LIKE 语法:
https://ci.apache.org/projects/flink/flink-docs-release-1.13/zh/docs/dev/table/sql/create/#like

casel.chen  于2021年9月18日周六 上午8:27写道:

上游kafka topic消息带有一个用户类型字段,现在想根据不同用户类型将数据发到不同topic(为了扩展不想写死有哪些类型) ,请问flink
sql支持动态创建sink table吗?


flink on k8s 的flink-web-ui 访问问题

2021-04-30 文章 spoon_lz


最近测试了一下flink on k8s native ,使用session 模式,启动session集群,


启动命令:
./bin/kubernetes-session.sh \
 -Dkubernetes.cluster-id=lz-test01 \
 -Dkubernetes.rest-service.exposed.type=NodePort 
返回url:
| 2021-04-30 14:50:27,525 INFO  
org.apache.flink.kubernetes.KubernetesClusterDescriptor  [] - Create flink 
session cluster lz-test01 successfully, JobManager Web Interface: 
http://10.83.79.13:32081 |
使用 curl http://10.83.79.13:32081 可以返回html内容。




但是使用application模式启动任务 ,启动命令:
 ./bin/flink run-application \
--target kubernetes-application \
-Dkubernetes.cluster-id=lz-application-test-01\
-Dkubernetes.rest-service.exposed.type=NodePort \
-Dkubernetes.container.image=flink-lz-application \
local:///tmp/usrlib/my-flink-job.jar
返回url:
| 2021-04-30 14:52:02,946 INFO  
org.apache.flink.kubernetes.KubernetesClusterDescriptor  [] - Create flink 
application cluster lz-application-test-01 successfully, JobManager Web 
Interface: http://10.83.79.13:32106 |
使用 curl http://10.83.79.13:32106 无法访问。
不知道大家使用application模式是怎样的姿势~



service显示为:
NAME  TYPE  CLUSTER-IP  
EXTERNAL-IP  PORT(S) AGE  
service/kubernetes ClusterIP  10.96.0.1 
   443/TCP   2d20h
service/lz-application-test-01  ClusterIP  None 
 6123/TCP,6124/TCP75s
service/lz-application-test-01-rest   NodePort 10.109.124.131 
 8081:32106/TCP  75s
service/lz-test01  ClusterIP  None  
   6123/TCP,6124/TCP 2m50s
service/lz-test01-rest   NodePort10.105.222.201 
 8081:32081/TCP  2m50s
service/nginx  NodePort 10.104.13.23
  80:32667/TCP  2d3h


| |
spoon_lz
|
|
spoon...@126.com
|
签名由网易邮箱大师定制