回复:flinksql问题请教

2021-07-06 文章 silence
已解决 where 条件始终为假。 -- 发件人:silence 发送时间:2021年7月7日(星期三) 12:05 收件人:user-zh 主 题:flinksql问题请教 请教一下下面的sql为什么会被翻译成有限数据集?源表是个kafka source,用了row_number进行开窗和两次Table Function join flink版本:1.12.2 Stage 1 : Data Source content : Source:

Re: flinksql 流维join 问题

2021-07-06 文章 Terry Wang
语句看起来是没有问题的,可以检查下数据是否能关联上 Best, Terry Wang > 2021年7月6日 下午3:24,赵旭晨 写道: > > 流表: > CREATE TABLE flink_doris_source ( > reporttime STRING, > tenantcode STRING, > visitid STRING, > orderid STRING, > orderdetailid STRING, > paymentdetailid STRING, > etltype

flinksql问题请教

2021-07-06 文章 silence
请教一下下面的sql为什么会被翻译成有限数据集?源表是个kafka source,用了row_number进行开窗和两次Table Function join flink版本:1.12.2 Stage 1 : Data Source content : Source: Values(tuples=[[]]) Stage 2 : Operator content : Correlate(invocation=[LateralArray($cor3.gift_list)], correlate=[table(LateralArray($cor3.gift_list))],

Re:Reply:flinksql 流维join 问题

2021-07-06 文章 赵旭晨
单独查kafka,mysql都有数据, 关联temporal join 维表字段就带不出来 看了下流表的proctime比当前时间早8小时,会不会这个原因? 在 2021-07-06 15:33:08,"guoyb" <861277...@qq.com.INVALID> 写道: >select的问题,排查一下,单独查表是否有数据,关联条件。 > > > >---Original--- >From: "赵旭晨"Sent at: 2021年7月6日(Tue) PM3:25 >To: "user-zh"Subject: flinksql 流维join 问题 > >

Re: 退订

2021-07-06 文章 Px New
如果需要取消订阅 u...@flink.apache.org 邮件组,请发送任意内容的邮件到 user-zh-unsubscr...@flink.apache.org 。 张保淇 于2021年7月6日周二 下午4:13写道: > 退订

退订

2021-07-06 文章 张保淇
退订

Re: Flink 1.10 内存问题

2021-07-06 文章 Yun Tang
Hi, 有可能的,如果下游发生了死锁,无法消费任何数据的话,整个作业就假死了。要定位root cause还是需要查一下下游的task究竟怎么了 祝好 唐云 From: Ada Luna Sent: Tuesday, July 6, 2021 12:04 To: user-zh@flink.apache.org Subject: Re: Flink 1.10 内存问题 反压会导致整个Flink任务假死吗?一条Kafka数据都不消费了。持续几天,不重启不恢复的 Yun Tang 于2021年7月6日周二

Reply:flinksql 流维join 问题

2021-07-06 文章 guoyb
select的问题,排查一下,单独查表是否有数据,关联条件。 ---Original--- From: "赵旭晨"

flinksql 流维join 问题

2021-07-06 文章 赵旭晨
流表: CREATE TABLE flink_doris_source ( reporttime STRING, tenantcode STRING, visitid STRING, orderid STRING, orderdetailid STRING, paymentdetailid STRING, etltype STRING, ptime as proctime() ) WITH ( 'connector' = 'kafka', 'topic' = 'demo', 'properties.bootstrap.servers' =