re:Re: 回复:Flink SQL官方何时能支持redis和mongodb连接器?

2021-09-22 Thread 2572805166
我司基于最新提供流批一体的接口,实现了mongodb的连接器,支持source和sink,实现了控制批量插入频率、控制缓存批的数据量和mongo文档对象和java对象转换,同时还可选择批量更新,并且使用的mongo最新异步驱动,后期我还会不断优化性能,看大佬能否推动一下,把这个连接器贡献给社区


-- 原始邮件 --
发件人: "Yun Tang";
发件时间: 2021-09-22 10:55
收件人: "user-zh@flink.apache.org";
主题: Re: 回复:Flink SQL官方何时能支持redis和mongodb连接器?



Hi,

其实目前Flink社区并不是那么欢迎新增官方支持的connector,主要原因就是社区的开发人员有限,没有精力维护太多的connector,尤其是一些connector的实现需要一定的相关背景,但很难保证review代码的开发人员具有相关背景,毕竟大家都需要为自己approve的代码负责。
你可以在 flink-packages [1] 里面找一下,或者考虑自己实现并维护(基础实现应该是复杂度不高的)。


[1] https://flink-packages.org/


祝好
唐云


From: 黑色 
Sent: Saturday, September 18, 2021 17:17
To: user-zh@flink.apache.org 
Subject: 回复:Flink SQL官方何时能支持redis和mongodb连接器?

这个可以自已定义一个,参考源码写一个,自己写出来的才是自己的,直接用别人的还是别人的




--原始邮件--
发件人:
"user-zh"   
 


re:回复: flink sql是否支持动态创建sink table?

2021-09-22 Thread 2572805166
使用java的动态编译和类加载技术,实现类似于web项目的热加载


-- 原始邮件 --
发件人: "JasonLee"<17610775...@163.com;
发件时间: 2021-09-22 22:33
收件人: "user-zh@flink.apache.org";
主题: 回复: flink sql是否支持动态创建sink table?



hi 事实上这个跟构建 graph 没有太大的关系 也不用在构建后调整 在构造 producer 的时候 topic 不要写死 自定义 
KafkaSerializationSchema 序列化类 topic 动态的从数据中获取就行了 Best JasonLee 在2021年9月22日 
19:48,spoon_lz 写道: “在 datastream api 任务是可以的” 
这样是可行的吗,我的理解flink是要先构建好graph之后才能运行,graph构建好之后可能没办法再动态调整了,除非写一个自定义的sink,自己实现逻辑 
在2021年09月22日 19:25,JasonLee<17610775...@163.com 写道: hi 这个我理解在 SQL 
任务里面目前是没办法做到的 在 datastream api 任务是可以的 Best JasonLee 在2021年9月22日 11:35,酷酷的浑蛋 写道: 
我也有这个需求,意思就是topic里实时新增了一种日志,然后想动态创建对应新的日志的topic表,并写入到新的topic表,在一个任务中完成 | | 
apache22 | | apach...@163.com | 签名由网易邮箱大师定制 在2021年09月22日 11:23,Caizhi Weng 写道: 
Hi! 不太明白这个需求,但如果希望发送给不同的 topic,需要给每个 topic 都定义 DDL。 如果是因为各 topic 之间的 schema 
重复度比较高,只有些许字段以及 topic 名称等不同,可以看一下 DDL LIKE 语法: 
https://ci.apache.org/projects/flink/flink-docs-release-1.13/zh/docs/dev/table/sql/create/#like
 casel.chen  于2021年9月18日周六 上午8:27写道: 上游kafka 
topic消息带有一个用户类型字段,现在想根据不同用户类型将数据发到不同topic(为了扩展不想写死有哪些类型) ,请问flink sql支持动态创建sink 
table吗?