Trying to eagerly schedule a task whose inputs are not ready

2020-07-15 文章 jiafu
flink org.apache.flink.runtime.executiongraph.ExecutionGraphException: Trying to eagerly schedule a task whose inputs are not ready (result type: PIPELINED_BOUNDED, partition consumable: false, producer state: SCHEDULED, producer slot: null).at

Re: [sql-client] 通过sql-client提交sql怎么设置checkpointing.interval

2020-07-15 文章 Harold.Miao
是在flink-conf.yaml里面配置这个参数吗 execution.checkpointing.interval godfrey he 于2020年7月16日周四 下午1:37写道: > 现在还不支持在sql-client-defaults.yaml 里配置 checkpointing.interval, > 你可以配置在flink-conf.yaml里 >

Re: [sql-client] 通过sql-client提交sql怎么设置checkpointing.interval

2020-07-15 文章 godfrey he
现在还不支持在sql-client-defaults.yaml 里配置 checkpointing.interval, 你可以配置在flink-conf.yaml里 Harold.Miao 于2020年7月16日周四 下午1:27写道: > hi flink users > > 通过sql-client提交sql怎么设置checkpointing.interval? > 我看了一下sql-client-defaults.yaml中的execution, 并没有发现这个参数。请教大家一下。 > 谢谢 > > > > -- > > Best Regards, > Harold Miao

[sql-client] 通过sql-client提交sql怎么设置checkpointing.interval

2020-07-15 文章 Harold.Miao
hi flink users 通过sql-client提交sql怎么设置checkpointing.interval? 我看了一下sql-client-defaults.yaml中的execution, 并没有发现这个参数。请教大家一下。 谢谢 -- Best Regards, Harold Miao

Re: Flink 1.11 submit job timed out

2020-07-15 文章 Congxian Qiu
Hi 如果没有异常,GC 情况也正常的话,或许可以看一下 pod 的相关日志,如果开启了 HA 也可以看一下 zk 的日志。之前遇到过一次在 Yarn 环境中类似的现象是由于其他原因导致的,通过看 NM 日志以及 zk 日志发现的原因。 Best, Congxian SmileSmile 于2020年7月15日周三 下午5:20写道: > Hi Roc > > 该现象在1.10.1版本没有,在1.11版本才出现。请问这个该如何查比较合适 > > > > | | > a511955993 > | > | > 邮箱:a511955...@163.com > | > > 签名由

Re: 回复:答复: flink state

2020-07-15 文章 Congxian Qiu
Hi broadcast state 是无法修改的,如果你还希望进行修改的话,可以使用 zhao liang 的方法,另外如果这个全局 state 不需要维护一致性等的话,同样可以考虑放到外存中(Redis,HBase 等) Best, Congxian zhao liang 于2020年7月15日周三 下午6:05写道: > Broadcast > state是无法满足你的要求的,估计你只能像我这样把涉及的state数据融入到数据流中,在算子中针对不同的类型数据做区分了,等于人工维持这个broadcast的流的变化。 > > 发件人: Robert.Zhang

Re: flink sql 1.11 create hive table error

2020-07-15 文章 Leonard Xu
Hello, Zach 是的, 1.12 会支持,PR[1]已经开了,在review中。 祝好, Leonard Xu [1] https://issues.apache.org/jira/browse/FLINK-18588 > 在 2020年7月16日,12:07,Zhou Zach 写道: > > Hi all, > flink sql 1.11 create table 是不是 不支持 IF NOT EXISTS > > > Query: >val

Re: flink 1.11 upsert结果出错

2020-07-15 文章 Leonard Xu
> 在 2020年7月16日,11:44,小学生 <201782...@qq.com> 写道: > > t_env.execute_sql('''delete from source_tab where trck_id='aew' ''') 你这张表定义的是 Flink 中的表,这张表对应的是你外部系统(MySQL数据库)中的表,Flink 不支持 表上 的DELETE [1], Flink 是一个计算引擎, 主要场景是读取、写入外部系统,修改外部系统的数据目前只发生在写入(insert)的时候,并且主要是为了保证数据一致性语义,需要往下游系统发Delete消息,

Re: Flink-1.11内置connector测试问题求解

2020-07-15 文章 godfrey he
目前 1.11 版本中的 tableResult.print 只支持 exactly once 语义,需要配置 checkpoint。 1.12 里准备支持 at least once 语义,用户可以不用配置 checkpoint。目前 pr [1] 正在reivew 。 [1] https://github.com/apache/flink/pull/12867 Best, Godfrey Jingsong Li 于2020年7月16日周四 上午11:36写道: > tableResult.print需要有checkpoint > > Best, > Jingsong >

flink sql 1.11 create hive table error

2020-07-15 文章 Zhou Zach
Hi all, flink sql 1.11 create table 是不是 不支持 IF NOT EXISTS Query: val hiveConfDir = "/etc/hive/conf" val hiveVersion = "2.1.1" val odsCatalog = "odsCatalog" val odsHiveCatalog = new HiveCatalog(odsCatalog, "ods", hiveConfDir, hiveVersion)

Re: flink 1.11 upsert????????

2020-07-15 文章 ??????
??delete?? from pyflink.datastream import StreamExecutionEnvironment, TimeCharacteristic, CheckpointingMode from pyflink.table import StreamTableEnvironment, EnvironmentSettings source=""" CREATE TABLE source_tab ( trck_id VARCHAR, score

FlinkKafkaConsumer API 维表关联

2020-07-15 文章 郑斌斌
各位好: 请教一下,用FlinkKafkaConsumer API的话,如何支持SQL的方式,和维表关联。(之前用Kafka API API是可以的) "select a.id,b.name from kafka_table a " + "join dim_table FOR SYSTEM_TIME AS OF a.proctime as b on a.id = b.user_id"; thanks & Regards

Re: flink 1.11 upsert????????

2020-07-15 文章 ??????
??pyflink??

Re: flink 1.11 upsert结果出错

2020-07-15 文章 Xingbo Huang
Hi, Leonard 说的是对的,除了udf的部分,pyflink的所有的api都是调用的java端的功能,如果java端没有,pyflink就不支持 Best, Xingbo Leonard Xu 于2020年7月16日周四 上午11:09写道: > Hi, > > 我理解 pyflink 底层也会走到你看到的java代码, 我对 pyflink 不是很熟, cc xingbo 补充下。 > > 祝好 > Leonard Xu > > > 在 2020年7月16日,11:04,小学生 <201782...@qq.com> 写道: > > > >

Re: flink 1.11 upsert结果出错

2020-07-15 文章 Leonard Xu
Hi, 我理解 pyflink 底层也会走到你看到的java代码, 我对 pyflink 不是很熟, cc xingbo 补充下。 祝好 Leonard Xu > 在 2020年7月16日,11:04,小学生 <201782...@qq.com> 写道: > > 各位大佬好,由于不是特别懂java,所以麻烦问下pyflink里面有相关mysql的delete吗,官网没看到,谢谢!

Re: flink 1.11 upsert????????

2020-07-15 文章 ??????
??java,pyflink??mysql??delete??

HELP,flink1.10 sql整合hbase,insert into时,提示validateSchemaAndApplyImplicitCast报错

2020-07-15 文章 Jim Chen
Hi, 我在使用flink1.10.1的sql功能,hbase的版本是1.4.3,写入hbase时,提示validateSchemaAndApplyImplicitCast报错,意思是Query的Schema和Sink的Schema不一致。主要是Query Schema中的Row(EXPR$0),里面都是表达式。Sink Schema中是Row(device_id)这种。我不知道,在sql中如何写,才能和hbase的sink schema保持一致。 我尝试了,类似于在select device_id as rowkey, ROW( device_id as 这里不能as ) as

Re:Re: flink 1.11 sql类型问题

2020-07-15 文章 sunfulin
hi, leonard 感谢回复。我在es的ddl with参数里加了这个,貌似还是报错。我再简单描述下我的场景: 我的es sink的ddl如下: create table es_sink ( a varchar, b varchar, c TIMESTAMP(9) WITH LOCAL TIME ZONE ) with ( ) 我使用处理时间属性,将流里的proctime转成UTC格式的日期类型,作为c这个字段写入。现在能原生支持么?之前在1.10版本貌似是可以直接写的。但是到1.11写的不带时区了,导致不能兼容之前的格式。

Re: flink 1.11 sql类型问题

2020-07-15 文章 Leonard Xu
Hello json解析UTC时间是支持的,你with参数里指定下json中timestamp的类型试下, json.timestamp-format.standard = 'ISO-8601' Best Leonard Xu [1] https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/connectors/formats/json.html#json-timestamp-format-standard

Re:flink 1.11 sql类型问题

2020-07-15 文章 sunfulin
hi, 我通过flink sql 定义了一个es sink,其中有个字段类型定义为了 eventTime TIMESTAMP(9) WITH LOCAL TIME ZONE。 在尝试写入时,报了如下的异常。看来json parser无法解析这种类型。请问下大神们,我应该怎么写入一个UTC日期的时间类型?格式类似 2020-07-15T12:00:00.000Z java.lang.UnsupportedOperationException: Not support to parse type: TIMESTAMP(9) WITH LOCAL TIME ZONE at

Re:Re: flink 1.9.2 升级 1.10.0 任务失败不能从checkpoint恢复

2020-07-15 文章 chenxyz
Hello, Peihui,可以参考下是不是和这个问题类似?之前我在1.10.0也遇到过。 http://apache-flink.147419.n8.nabble.com/rocksdb-Could-not-restore-keyed-state-backend-for-KeyedProcessOperator-td2232.html#a2239 解决方式: 1. 使用hdfs作为状态后端不会报错 2. 升级至1.10.1使用rocksdb也不会出现该问题 在 2020-07-14 14:41:53,"Peihui He" 写道: >Hi Yun, >

flink 1.11 sql类型问题

2020-07-15 文章 sunfulin
hi, 我看1.11的java.sql.Timestamp 对应的是Flink的TIMESTAMP(9),跟之前默认的TIMESTAMP(3)有区别,而且之前1.10的Timestamp(3)是带时区UTC的,现在这个类型不带时区了。想问下这个具体调整应该如何适配?

Re: flink1.11 sql kafka 抽取事件时间

2020-07-15 文章 Benchao Li
我感觉可以通过计算列的方式来解决呀,你只需要在计算rowtime这个列的时候保证它不是null即可,如果是null,可以设置一个默认值之类的? 18500348...@163.com <18500348...@163.com> 于2020年7月15日周三 下午3:04写道: > 大家好! > > 使用flink1.11 sql接入kafka ,format为csv > 从eventTime字段中抽取事件时间 > rowtime AS TO_TIMESTAMP(FROM_UNIXTIME(eventTime / 1000, '-MM-dd > HH:mm:ss')) >

答复: 回复:答复: flink state

2020-07-15 文章 zhao liang
Broadcast state是无法满足你的要求的,估计你只能像我这样把涉及的state数据融入到数据流中,在算子中针对不同的类型数据做区分了,等于人工维持这个broadcast的流的变化。 发件人: Robert.Zhang <173603...@qq.com> 日期: 星期三, 2020年7月15日 15:22 收件人: user-zh , user-zh@flink.apache.org 主题: 回复:答复: flink state 是这样的,问题在于我需要使用keyed state 来修改broadcast state,比如根据keyed

springboot 2.3.1 + flink 1.11.0整合后如何从外部传入application.yml配置文件?

2020-07-15 文章 vw17
Hi, 由于项目需要目前整合了springboot和flink, 但一些项目的相关配置在application.yml,生产环境需要变更其中的一些配置。之前通常的做法的是启动时使用 -Dspring.config.location=xxx 从外部指定需要的配置文件。现在想知道如果使用flink run 启动jar能否支持这种指定方式? 谢谢 -- Sent from: http://apache-flink.147419.n8.nabble.com/

?????? pyflink1.11.0window

2020-07-15 文章 ??????????????
?? ---- ??: "user-zh"

Re: pyflink1.11.0window

2020-07-15 文章 Shuiqiang Chen
下面这个例子从kafka读取json格式的数据, 然后做窗口聚合后写入es, 可以参考下代码结构, 修改相应数据字段。 这份代码你本地应该是不能运行的 from pyflink.datastream import StreamExecutionEnvironment, TimeCharacteristic from pyflink.table import StreamTableEnvironment, DataTypes, EnvironmentSettings from pyflink.table.udf import udf

Re: Flink 1.11 submit job timed out

2020-07-15 文章 SmileSmile
Hi Roc 该现象在1.10.1版本没有,在1.11版本才出现。请问这个该如何查比较合适 | | a511955993 | | 邮箱:a511955...@163.com | 签名由 网易邮箱大师 定制 On 07/15/2020 17:16, Roc Marshal wrote: Hi,SmileSmile. 个人之前有遇到过 类似 的host解析问题,可以从k8s的pod节点网络映射角度排查一下。 希望这对你有帮助。 祝好。 Roc Marshal 在 2020-07-15 17:04:18,"SmileSmile" 写道: > >Hi >

Re:Flink 1.11 submit job timed out

2020-07-15 文章 Roc Marshal
Hi,SmileSmile. 个人之前有遇到过 类似 的host解析问题,可以从k8s的pod节点网络映射角度排查一下。 希望这对你有帮助。 祝好。 Roc Marshal 在 2020-07-15 17:04:18,"SmileSmile" 写道: > >Hi > >使用版本Flink 1.11,部署方式 kubernetes session。 TM个数30个,每个TM 4个slot。 job >并行度120.提交作业的时候出现大量的No hostname could be resolved for the IP address,JM time

Re:【求助】Flink Hadoop依赖问题

2020-07-15 文章 Roc Marshal
你好,Z-Z, 可以尝试在 https://repo1.maven.org/maven2/org/apache/flink/flink-shaded-hadoop-2-uber/ 下载对应的uber jar包,并就将下载后的jar文件放到flink镜像的 ${FLINK_HOME}/lib 路径下,之后启动编排的容器。 祝好。 Roc Marshal. 在 2020-07-15 10:47:39,"Z-Z" 写道: >我在使用Flink 1.11.0版本中,使用docker-compose搭建,docker-compose文件如下: >version:

Flink 1.11 submit job timed out

2020-07-15 文章 SmileSmile
Hi 使用版本Flink 1.11,部署方式 kubernetes session。 TM个数30个,每个TM 4个slot。 job 并行度120.提交作业的时候出现大量的No hostname could be resolved for the IP address,JM time out,作业提交失败。web ui也会卡主无响应。 用wordCount,并行度只有1提交也会刷,no hostname的日志会刷个几条,然后正常提交,如果并行度一上去,就会超时。 部分日志如下: 2020-07-15 16:58:46,460 WARN

回复: FlinkSQL 入到 MySQL后汉字乱码

2020-07-15 文章 wangl...@geekplus.com.cn
是 MySQL_tableB 所在的 server 端字符设置有问题。 配置中加上下面的配置就好了。 [mysqld] character-set-server=utf8 [client] default-character-set=utf8 [mysql] default-character-set=utf8 wangl...@geekplus.com.cn 发件人: wangl...@geekplus.com.cn 发送时间: 2020-07-15 16:34 收件人: user-zh 主题: FlinkSQL 入到 MySQL后汉字乱码 KafkaTable:

Re: flink 1.11 自定义RichFlatMapFunction中使用JdbcRowDataOutputFormat 写pgsql数据问题,RuntimeContext初始化问题,空指针或RuntimeContext未初始化,哪里用的不对!

2020-07-15 文章 jindy_liu
确实是这行导致的, 如果都重构了,那应该怎么用较好的? 我需要知道每一行对应的是insert, update还是delete事件。 或者问题变一下,对于这种api,一般遵守什么规则,flink的版本兼容性会更好? -- Sent from: http://apache-flink.147419.n8.nabble.com/

?????? pyflink1.11.0window

2020-07-15 文章 ??????????????
Shuiqiang hi2-from_kafka_to_kafka.py??demodemo??

Re: flink 1.9.2 升级 1.10.0 任务失败不能从checkpoint恢复

2020-07-15 文章 Robin Zhang
据我所知,跨大版本的不能直接从checkoint恢复,只能放弃状态重新跑 Best Robin Zhang From: Peihui He <[hidden email]> Sent: Tuesday, July 14, 2020 10:42 To: [hidden email] <[hidden email]> Subject: flink 1.9.2 升级 1.10.0 任务失败不能从checkpoint恢复 hello, 当升级到1.10.0

??????????: flink state

2020-07-15 文章 Robert.Zhang
keyed state ??broadcast state??keyed statekeybroadcast statebroadcast state??key nonbroadcast side??broadcast state??read-only, ??

flink1.11 sql kafka 抽取事件时间

2020-07-15 文章 18500348...@163.com
大家好! 使用flink1.11 sql接入kafka ,format为csv 从eventTime字段中抽取事件时间 rowtime AS TO_TIMESTAMP(FROM_UNIXTIME(eventTime / 1000, '-MM-dd HH:mm:ss')) eventTime可能存在脏数据(非13位的毫秒时间戳),设置了 'csv.ignore-parse-errors' = 'true', 那么eventTime会被设置为null,此时会报一个异常: Caused by: java.lang.RuntimeException: RowTime field

?????? flink on yarn????????

2020-07-15 文章 Cayden chen
logback??appder??appder(flinktaskmanager??applicationIdjar??appder)??MDC.put(),appIdappder??