Re:re:Re: 回复:Flink SQL官方何时能支持redis和mongodb连接器?

2021-09-22 文章 casel.chen
>我司基于最新提供流批一体的接口,实现了mongodb的连接器,支持source和sink,实现了控制批量插入频率、控制缓存批的数据量和mongo文档对象和java对象转换,同时还可选择批量更新,并且使用的mongo最新异步驱动,后期我还会不断优化性能,看大佬能否推动一下,把这个连接器贡献给社区 问一下自己开发的连接器要怎么添加到 https://flink-packages.org/ 网站给大家搜索到?这位朋友能够将你们的连接器贡献上去呢? 在 2021-09-23 09:32:39,"2572805166"

????

2021-09-22 文章 Elaiza

Flink Session 模式Job日志区分

2021-09-22 文章 Ada Luna
多个Job跑在一个Session中,如何区分不同job的日志呢?目前有什么好的办法吗?

re:Re: 回复:Flink SQL官方何时能支持redis和mongodb连接器?

2021-09-22 文章 2572805166
我司基于最新提供流批一体的接口,实现了mongodb的连接器,支持source和sink,实现了控制批量插入频率、控制缓存批的数据量和mongo文档对象和java对象转换,同时还可选择批量更新,并且使用的mongo最新异步驱动,后期我还会不断优化性能,看大佬能否推动一下,把这个连接器贡献给社区 -- 原始邮件 -- 发件人: "Yun Tang"; 发件时间: 2021-09-22 10:55 收件人: "user-zh@flink.apache.org"; 主题: Re: 回复:Flink

??????re:?????? flink sql????????????????sink table?

2021-09-22 文章 ??????
sql??sql?? iPhone -- -- ??: 2572805166 <2572805...@qq.com.INVALID : 2021??9??23?? 09:23 ??: user-zh

??????re:?????? flink sql????????????????sink table?

2021-09-22 文章 ??????
sql??sql iPhone -- -- ??: 2572805166 <2572805...@qq.com.INVALID : 2021923 09:23 ??: user-zh

re:回复: flink sql是否支持动态创建sink table?

2021-09-22 文章 2572805166
使用java的动态编译和类加载技术,实现类似于web项目的热加载 -- 原始邮件 -- 发件人: "JasonLee"<17610775...@163.com; 发件时间: 2021-09-22 22:33 收件人: "user-zh@flink.apache.org"; 主题: 回复: flink sql是否支持动态创建sink table? hi 事实上这个跟构建 graph 没有太大的关系 也不用在构建后调整 在构造 producer 的时候 topic 不要写死 自定义

????

2021-09-22 文章 ??????????

回复: flink sql是否支持动态创建sink table?

2021-09-22 文章 spoon_lz
“在 datastream api 任务是可以的” 这样是可行的吗,我的理解flink是要先构建好graph之后才能运行,graph构建好之后可能没办法再动态调整了,除非写一个自定义的sink,自己实现逻辑 在2021年09月22日 19:25,JasonLee<17610775...@163.com> 写道: hi 这个我理解在 SQL 任务里面目前是没办法做到的 在 datastream api 任务是可以的 Best JasonLee 在2021年9月22日 11:35,酷酷的浑蛋 写道:

回复: flink sql是否支持动态创建sink table?

2021-09-22 文章 JasonLee
hi 这个我理解在 SQL 任务里面目前是没办法做到的 在 datastream api 任务是可以的 Best JasonLee 在2021年9月22日 11:35,酷酷的浑蛋 写道: 我也有这个需求,意思就是topic里实时新增了一种日志,然后想动态创建对应新的日志的topic表,并写入到新的topic表,在一个任务中完成 | | apache22 | | apach...@163.com | 签名由网易邮箱大师定制 在2021年09月22日 11:23,Caizhi Weng 写道: Hi! 不太明白这个需求,但如果希望发送给不同的 topic,需要给每个

回复:flink消费kafka分区消息不均衡问题

2021-09-22 文章 JasonLee
hi 图片看不到 我猜大概有两种情况 第一种是你的 source 本身就存在数据倾斜 某几个分区的数据量比其他分区的多 需要修改数据写入 kafka 分区策略让数据尽量均匀 第二种是你的下游计算的时候出现数据倾斜(或其他原因)导致任务反压到 source 端 这种情况需要根据实际的情况采用不同的解决方案 单纯的增加并发和改变 slot 数量没有什么效果 Best JasonLee 在2021年9月22日 09:22,casel.chen 写道: kafka topic有32个分区,实时作业开了32个并行度消费kafka