Flink-connector-jdbc源码问题疑惑

2021-05-12 文章
flink版本:1.11 1.首先第一个问题是在1.11的官方文档connectors的jdbc页面上有这样一句话 Notice that scan.partition.lower-bound and scan.partition.upper-bound are just used to decide the partition stride, not for filtering the rows in table. 这与我观看的源码的结果是不一致的,scan.partition.lower-bound and scan.partition.upper-bound 这两个参数会导致数据

Re: Flink sql 自定义udaf函数 出现 No match found for function signature count_uadf()

2020-12-17 文章
问题我自己已经解决。 > 在 2020年12月17日,下午9:00,丁浩浩 <18579099...@163.com> 写道: > > flink版本:1.11.1 > udaf函数代码来自于阿里云官网文档 > > 以下是代码 > public class TestSql { >public static void main(String[] args) throws Exception { >

Flink sql 自定义udaf函数 出现 No match found for function signature count_uadf()

2020-12-17 文章
flink版本:1.11.1 udaf函数代码来自于阿里云官网文档 以下是代码 public class TestSql { public static void main(String[] args) throws Exception { StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); StreamTableEnvironment tableEnv = FlinkUt

Flink cdc扫描过程报错Query execution was interrupted, maximum statement execution time exceeded

2020-11-18 文章
我有一张大表有上亿条数据,但是在扫描过程中发生错误。提示超过最大执行时间,这个应该如何解决。 2020-11-18 17:07:43,658 INFO io.debezium.connector.mysql.SnapshotReader [] - Step 7: - 10403 of 131508640 rows scanned from table 'test.right_info' after 01:00:00.952 2020-11-18 17:07:44,131 INFO io.debezium.connector.mysql.S

Re: Flink cdc 多表关联处理延迟很大

2020-11-17 文章
也有提及: >>>> >>>> 解决办法:在 flink-conf.yaml 配置 failed checkpoint 容忍次数,以及失败重启策略,如下: >>>> >>>> execution.checkpointing.interval: 10min # checkpoint间隔时间 >>>> execution.checkpointing.tolerable-failed-checkpoints: 100 # checkpoint >>>&g

Re: Flink cdc 多表关联处理延迟很大

2020-11-17 文章
把 not exists 替换成其他方案,比如 udf,维表 join。 > > Best, > Jark > > On Mon, 16 Nov 2020 at 10:05, 丁浩浩 <18579099...@163.com> wrote: > >> select >>ri.sub_clazz_number, >>prcrs.rounds, >>count(*) as num >> from >>subclazz gs &g

Flink sql 无法用!=

2020-11-15 文章
我想在where条件下用不等号报错,难道flink sql不等号不是!=这个吗? [ERROR] Could not execute SQL statement. Reason: org.apache.calcite.runtime.CalciteException: Bang equal '!=' is not allowed under the current SQL conformance level

Re: Flink cdc 多表关联处理延迟很大

2020-11-15 文章
SYSTEM TIME AS OF)? > 需要明确下,到底是什么节点慢了。 > > On Fri, 13 Nov 2020 at 19:02, 丁浩浩 <18579099...@163.com> wrote: > >> 我用flink cdc 对mysql的表进行关联查询,发现flink只能两张表关联之后再跟下一张表关联,导致最后落库的延迟非常大。 >> 有没有比较好的优化方案能缓解这样的问题?

Flink cdc 多表关联处理延迟很大

2020-11-13 文章
我用flink cdc 对mysql的表进行关联查询,发现flink只能两张表关联之后再跟下一张表关联,导致最后落库的延迟非常大。 有没有比较好的优化方案能缓解这样的问题?

Flink cdc mysql 字段是datetime类型时0000-00-00 00:00:00会被flink转成1970-01-01T00:00

2020-11-10 文章
当我mysql字段时datetime并且字段值是-00-00 00:00:00时,会被转成1970-01-01T00:00,如果我应该如何操作才能保证跟原数值保持一致? 输出的结果: 2> (true,1,zhangsan,18,1970-01-01T00:00) 3> (true,2,lisi,20,2020-11-11T14:17:46) 4> (true,3,wangwu,99,1970-01-01T00:00) 1> (true,4,zhaoliu,77,1970-01-01T00:00) 日志信息: 2020-11-11 14:30:37,418 - 19755 WARN

Flink sql cdc 锁超时

2020-11-10 文章
当我使用flink cdc 对多张表进行关联查询时其中的一张表总是会有锁超时的情况,导致任务无法正常启动, 请问这种情况应该如何处理? org.apache.kafka.connect.errors.ConnectException: Lock wait timeout exceeded; try restarting transaction Error code: 1205; SQLSTATE: 40001. at io.debezium.connector.mysql.AbstractReader.wrap(AbstractReader.java:230)

Re: Flink sql查询NULL值错误

2020-11-10 文章
感谢大佬!!! > 在 2020年11月10日,下午8:22,hailongwang <18868816...@163.com> 写道: > > Hi, > > > 需要将 null cast 成某个具体的值,比如: > if(type=1,2,cast(null as int)) > > > Best, > Hailong > 在 2020-11-10 19:14:44,"丁浩浩" <18579099...@163.com> 写道: >> Sele

Flink sql查询NULL值错误

2020-11-10 文章
Select id, name, if(type=1,2,null) From user ; 当我执行上面的sql的时候提示我 [ERROR] Could not execute SQL statement. Reason: org.apache.calcite.sql.validate.SqlValidatorException: Illegal use of ‘NULL’ 是无法将null展示吗?

flink cdc 当mysql表字段修改之后提示没有找到这个字段

2020-11-09 文章
当mysql表字段修改之后,再用flink cdc接入,当使用到这个表的时候会提示字段不存在。 Exception in thread "main" org.apache.flink.table.api.ValidationException: SQL validation failed. From line 53, column 15 to line 53, column 20: Column 'rounds' not found in table 'prcrs' at org.apache.flink.table.planner.calcite.FlinkPlann

Re: Flink sql tinyint类型使用in 报错

2020-11-09 文章
就比如我要用flink cdc 接入mysql表,一般都是直接将mysql表的DDL稍加修改然后在flink sql中创建,一般都不会考虑到 类型转换的问题就直接沿用mysql中的类型,当然sql也是一样的。同样的sql在满足语法正确性的情况下,mysql中能跑,而flinksql中无法跑, 当然可以通过显示类型转化来完成,但是能提供自动转化会更好的提供易用性。 > 在 2020年11月10日,下午2:51,Danny Chan 写道: > > 暂时还没有 你们是什么场景需要用到隐式类型 > > 丁浩浩 <18579099...@163.com&

Re: Flink sql tinyint类型使用in 报错

2020-11-09 文章
t; 你要么可以把 type 定义成 INT,要不把后面的值 CAST 成 TINYINT。 >> >> >> Best, >> Hailong Wang >> >> 在 2020-11-10 10:41:47,"丁浩浩" <18579099...@163.com> 写道: >>> 我使用flink sql cdc取连接 mysql表的时候,当我的mysql表type这个字段类型是tinyint类型时 使用type >> in(1,2,3,4,5)会报

Flink sql tinyint类型使用in 报错

2020-11-09 文章
我使用flink sql cdc取连接 mysql表的时候,当我的mysql表type这个字段类型是tinyint类型时 使用type in(1,2,3,4,5)会报以下的错误,只有当我把字段类型改成int的时候才能使用in,这是符合预期的吗,当字段类型不匹配的时候 flink sql不会自动转换类型吗? [ERROR] Could not execute SQL statement. Reason: org.codehaus.commons.compiler.CompileException: Line 6, Column 88: No applicable constructor

提交flink sql任务报错

2020-11-04 文章
这个任务通过读取mysql CDC 然后关联之后写入到mysql中,每次提交任务都会报错,但是会正确提交的集群上去,并且成功执行。 我想问问是什么原因? The program finished with the following exception: org.apache.flink.client.program.ProgramInvocationException: The main method caused an error: No operators d

Re: 使用flink-CDC checkpoint超时问题

2020-11-02 文章
> hi > > 我建议可以从两方面排查一下: > > 1、检查 checkpoint 的大小,是不是很大? > > 2、检查作业是否反压?反压的情况下 checkpoint 一般很难成功,这种情况可以先解决反压的问题。 > > Best > zhisheng > > 丁浩浩 <18579099...@163.com> 于2020年11月2日周一 下午4:08写道: > >> 我刚调研flink sql cdc功能,我有一个这样的需求,就是三张CDC的表做left join关联

使用flink-CDC checkpoint超时问题

2020-11-02 文章
我刚调研flink sql cdc功能,我有一个这样的需求,就是三张CDC的表做left join关联,由于三张表都会变化,所以使用cdc来做。 前两张表数据每张大概20万条数据,最后一张表只有几十条数据,我是讲三张表关联之后做成宽表写入的mysql中。 每次数据写到10万条左右任务失败,查看了一下日志,是checkpoint超时造成的。状态后端用的rocksDB。我想问 数据量也不是很大,为什么checkpoint会超时呢,也就是10分钟没有完成checkpoint?

Re: flink1.11.2webui界面中的任务详情页面获取不到任务的received和sent数据详情

2020-10-13 文章
source应该是没有输入指标吧 > 在 2020年10月13日,下午5:39,hailongwang <18868816...@163.com> 写道: > > Hi chenxuying, > > > 如果你的算子都是 chain 成一个 operator 的话,那么是没有的。因为 Source 没有 输出指标,Sink 没有输出指标,所以 > chain在一起是话就没有了。 > 如果你想要看的话,可以并发设置成不一样,或者显示的调用 disableChain。 > > > Best, > Hailong Wang > > > 在 2020-10-13 16:22:41

Re: flink1.11.2webui界面中的任务详情页面获取不到任务的received和sent数据详情

2020-10-13 文章
如果你的算子全都串在一个节点里面的话,是看不到输入输出的。 > 在 2020年10月13日,下午5:22,chenxuying 写道: > > 集群是local Standalone模式,任务可以正常的运行, sink是print,能在Stdout看到数据输出, > 但是在任务详情页面没有Bytes Received, Records Received, Bytes Sent , Records Sent等实时数据 > 都是0

如何获取flink webUI上面的DAG图

2020-10-12 文章
我想要获取到flink webUI上面的DAG图,有什么办法能够获取到吗?

flink任务yarn perjob 提交任务如何设置job name

2020-09-30 文章
如题,我需要设置flink提交到yarn的job name应该怎么设置呢?