Re:Re:Re:使用了流应用中使用了mysql jdbc的source,Execution处于FINISHED状态无法生成检查点

2021-04-19 文章 anonnius
://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/connectors/jdbc.html#lookup-cache 希望对你有帮助 在 2021-04-19 18:54:38,"anonnius" 写道: >hi: 今天又试了下, 我这边出现问题是因为: join时使用的问题 照成的 > >应该使用这种语法 >-- temporal join the JDBC table as a d

Re:Re:使用了流应用中使用了mysql jdbc的source,Execution处于FINISHED状态无法生成检查点

2021-04-19 文章 anonnius
/projects/flink/flink-docs-release-1.11/dev/table/connectors/jdbc.html#lookup-cache 希望对你有帮助 在 2021-04-14 16:47:04,"anonnius" 写道: >+1, 目前也遇到了 >在 2021-01-21 17:52:06,"刘海" 写道: >>HI! >>这边做测试时遇到一个问题: >>在流应用中使用了一个mysql jdbc的source作为维表,为了优化处理效率使用了Lookup Ca

Re:使用了流应用中使用了mysql jdbc的source,Execution处于FINISHED状态无法生成检查点

2021-04-14 文章 anonnius
+1, 目前也遇到了 在 2021-01-21 17:52:06,"刘海" 写道: >HI! >这边做测试时遇到一个问题: >在流应用中使用了一个mysql jdbc的source作为维表,为了优化处理效率使用了Lookup Cache,下面是注册的表: >bsTableEnv.executeSql("CREATE TABLE tm_dealers (dealer_code STRING,is_valid >DECIMAL(10,0),proctime AS PROCTIME(),PRIMARY KEY (dealer_code) NOT ENFORCED\n" >+ >")

Re:Re: flink waterMark 相关问题

2021-01-12 文章 anonnius
gt;Ball's Holy <873925...@qq.com> 于2021年1月13日周三 上午9:42写道: > >> hi张锴, >> 如果我没记错的话,默认时间间隔是200毫秒,具体设置细节可以看flink.api.common.ExecutionConfig >> 对应的属性autoWatermarkInterval >> >> >> >> >> --原始邮件-- >> 发件人: &q

Re:flink waterMark 相关问题

2021-01-12 文章 anonnius
可以看一下 ExecutionConfig这个类 在 2021-01-12 17:55:47,"张锴" 写道: >hi,我使用的flink版本是1.10,我想问一下watermark的默认时间间隔是多少,以及所对应的源码位置在哪里,我并没有找到。

Re:回复:flink sql count问题

2020-09-27 文章 anonnius
select count(nullif(if(name not like '南京%', '其他', '南京'), '其他')) 在 2020-09-27 17:23:07,"zya" 写道: >你好,链接无法显示,能麻烦再贴下吗 > > >--原始邮件-- >发件人: >

Re:??????flink sql count????

2020-09-27 文章 anonnius
hi:select count(nullif(if(name not like '%', '', ''), '')) ?? 2020-09-27 17:07:39??"zya" ?? > > > > > >---- >??: >

Re:回复: Flink sql 消费kafka的顺序是怎么样的 第二次运行sql的结果和第一次不同

2020-09-18 文章 anonnius
2 > 2 >2020-09-18T09:18 2020-09-18T09:20 8 > 3 >2020-09-18T09:20 2020-09-18T09:22 2 > 2 > > > > >发件人: anonnius >发送时间: 2020-09-18 11:24 >收件人: user-zh >主题: Fl

Flink sql 消费kafka的顺序是怎么样的 第二次运行sql的结果和第一次不同

2020-09-17 文章 anonnius
hi: [求助] 我这里用flink-sql消费kafka数据, 通过窗口做pvuv的计算, 第一次和第二次计算的结果不一致, 不太了解为什么 0> mac本地环境 1> flink 1.11.1 2> kafka 0.10.2.2, topic为message-json, 分区为3, 副本为1 3> 使用的是sql-client.sh 环境 4> 先在sql-cli中创建了iservVisit表 create table iservVisit ( type string comment '时间类型', uuid string comment '用户uri',