回复:mysql cdc配置问题求助

2021-03-18 文章 飞翔
第一:一般这里需要reload 和lock table权限,这个权限包括你的replication slave 等权限用grant是授予不了的,测试建议先all。 第二:你可以登陆安装目录flink1.x/log,里面有详细的错误日志,不要只在client 里面苦想。我们连接的是mysql-cdc 发自我的iPhone -- 原始邮件 -- 发件人: 信华哺

??????mysql cdc????????????

2021-03-18 文章 steve
??reload ??lock table??replication slave grantall?? flink1.x/log,??client ??mysql-cdc ---- ??:??

????

2021-03-18 文章 ?0?1?0?4
---- ??: "user-zh"

mysql cdc配置问题求助

2021-03-18 文章 信华哺
各位好: 我通过mysql cdc链接mysql(mariadb)一直不成功。网上也搜不到有效的解决方法。 用pyflink调试就一直运行也没数据也不报错。用flink sql就报java.net.ConnectException: Connection refused。 用slave可以远程连接mysql,也执行了 grant replication client, replication slave on *.* to 'slave'@'%' identified by 'slave';

Re: Flink SQL JDBC connector不能checkpoint

2021-03-18 文章 Gengshen Zhao
感谢您的回复,我的flink 版本为1.12,关联方式是Join with Temporal Table,具体关联sql如下 |SELECT tb_a.* |FROM person_event_enter_base tb_a |LEFT JOIN base_common_site_conf FOR SYSTEM_TIME AS OF tb_a.rowtime AS tb_b |ON tb_a.site_id = tb_b.entity_id |AND tb_b.`type` = 'business_start' | WHERE tb_a.begin_time >=

Re: Flink SQL JDBC connector不能checkpoint

2021-03-18 文章 Gengshen Zhao
感谢您的回复,我的flink 版本为1.12,关联方式是Join with Temporal Table,具体关联sql如下 |SELECT tb_a.* |FROM person_event_enter_base tb_a |LEFT JOIN base_common_site_conf FOR SYSTEM_TIME AS OF tb_a.rowtime AS tb_b |ON tb_a.site_id = tb_b.entity_id |AND tb_b.`type` = 'business_start' | WHERE tb_a.begin_time >=

Re: MySQL cdc时态表join

2021-03-18 文章 chenxyz
可以参考 https://github.com/leonardBang/flink-sql-etl/tree/master/flink-demo/flink-temporal-join-demo > 2021年3月18日 下午4:41,guoyb <861277...@qq.com> 写道: > > mysql cdc表 和kafka表关联,应该怎么写,有对应示例吗?

Re: pyflink UDTF求助!

2021-03-18 文章 陈康
感谢回复! -- Sent from: http://apache-flink.147419.n8.nabble.com/

MySQL cdc时态表join

2021-03-18 文章 guoyb
mysql cdc表 和kafka表关联,应该怎么写,有对应示例吗?

Re: Flink SQL JDBC connector不能checkpoint

2021-03-18 文章 amenhub
hi, 请问使用的Flink版本是什么呢?猜测你应该是写成普通的join方式了,可参考 [1] [1] https://ci.apache.org/projects/flink/flink-docs-release-1.12/dev/table/sql/queries.html#joins best, amenhub 发件人: Gengshen Zhao 发送时间: 2021-03-18 16:26 收件人: user-zh@flink.apache.org 主题: Flink SQL JDBC connector不能checkpoint Flink开发者们,你们好:

Re: 关于statement输出结果疑问

2021-03-18 文章 Dian Fu
流作业本身是不支持lazy模式的。 > 2021年3月17日 下午3:33,Shuai Xia 写道: > > Hi,大佬,想问下如果使用Lazy调度模式,情况会是什么样子 > > -- > 发件人:Dian Fu mailto:dian0511...@gmail.com>> > 发送时间:2021年3月15日(星期一) 15:49 > 收件人:刘杰鸿 mailto:wushang...@foxmail.com>> > 抄 送:user-zh

Flink SQL JDBC connector不能checkpoint

2021-03-18 文章 Gengshen Zhao
Flink开发者们,你们好: 我在使用flink开发过程中遇到一个问题,在使用jdbc做维度表关联时,该算子很快就finished了,从而导致无法正常的checkoint(我看源码中checkpoint前会检查所有算子状态必须为running),请问目前有什么参数可以使jdbc不finished或者在算子finished后依然可以checkpoint么?如果没有,那对这种情况的支持是否列入flink未来版本的开发计划中? 期待你们的回信 祝各位工作顺利,谢谢 赵庚申 赵庚申 Phone:15383463958

Re: pyflink UDTF求助!

2021-03-18 文章 Xingbo Huang
Hi, 经过排查,这个确实一个bug。问题出在没有正确处理在sub-query中使用的python udf。我已经创建JIRA[1] 来记录这个问题了。目前的workaroud方案是使用Table API。 具体可以参考下面的代码: >>> a = t_env.sql_query(""" SELECT hotime , before_ta , before_rssi , after_ta , after_rssil , nb_tath , nb_rssith ,

Flink SQL JDBC connector不能checkpoint

2021-03-18 文章 Gengshen Zhao
Flink开发者们,你们好: 我在使用flink开发过程中遇到一个问题,在使用jdbc做维度表关联时,该算子很快就finished了,从而导致无法正常的checkoint(我看源码中checkpoint前会检查所有算子状态必须为running),请问目前有什么参数可以使jdbc不finished或者在算子finished后依然可以checkpoint么?如果没有,那对这种情况的支持是否列入flink未来版本的开发计划中? 期待你们的回信 祝各位工作顺利,谢谢 赵庚申 Phone:15383463958