回复:Flink1.11-release编译部署后sql-client的bug

2020-06-01 文章 夏帅
好的,感谢 -- 发件人:godfrey he 发送时间:2020年6月2日(星期二) 12:32 收件人:user-zh 抄 送:夏帅 主 题:Re: Flink1.11-release编译部署后sql-client的bug Hi, 夏帅 感谢反馈问题,我建了一个issue https://issues.apache.org/jira/browse/FLINK-18055,应该今天就可以fix Best, Godfrey Leonard Xu

Re: Flink1.11-release编译部署后sql-client的bug

2020-06-01 文章 godfrey he
Hi, 夏帅 感谢反馈问题,我建了一个issue https://issues.apache.org/jira/browse/FLINK-18055 ,应该今天就可以fix Best, Godfrey Leonard Xu 于2020年6月2日周二 下午12:13写道: > Hi, 夏帅 > > 感谢反馈,这应该是个bug,我 这边本地也复现了,我先看下哈 > > 祝好, > Leonard Xu > > > 在 2020年6月2日,11:57,夏帅 写道: > > > > 是我编译的问题么,在window下编译的 > >

Re: Flink1.11-release编译部署后sql-client的bug

2020-06-01 文章 Leonard Xu
Hi, 夏帅 感谢反馈,这应该是个bug,我 这边本地也复现了,我先看下哈 祝好, Leonard Xu > 在 2020年6月2日,11:57,夏帅 写道: > > 是我编译的问题么,在window下编译的

Flink1.11-release编译部署后sql-client的bug

2020-06-01 文章 夏帅
大家好,有人编译部署过flink-1.11-release么,为什么我使用sql-client时设置了catalog 但是并不生效,顺带自动补全也不太好使 是我编译的问题么,在window下编译的 编译步骤见链接 https://jxeditor.github.io/2020/06/01/Flink1.11.0%E7%BC%96%E8%AF%91/ $ mvn -version Apache Maven 3.5.4 (1edded0938998edf8bf061f1ceb3cfdeccf443fe; 2018-06-18T02:33:14+08:00) Flink SQL> show

Re: Flink1.9 yarn session模式 经常Ask timed out

2020-06-01 文章 Benchao Li
我们一般遇到这种情况,大都是JobManager Full GC导致的。你可以检查下你的JM的内存使用情况 star <3149768...@qq.com> 于2020年6月2日周二 上午10:03写道: > 您好, > > Flink1.9 yarn session模式 经常Ask timed out > > > 在执行flink list shell命令的时候连接不上 报 > akka.pattern.AskTimeoutException: Ask timed out on > [Actor[akka://flink/user/dispatcher#180439734]]

Flink1.9 yarn session???? ????Ask timed out

2020-06-01 文章 star
?? Flink1.9 yarn session Ask timed out ??flink list shell?? ?? akka.pattern.AskTimeoutException: Ask timed out on [Actor[akka://flink/user/dispatcher#180439734]] after [1 ms]. Message of type [org.apache.flink.runtime.rpc.messages.LocalFencedMessage]. A

Re:回复: 关于使用IngressTime,window过小的问题

2020-06-01 文章 chaojianok
把 Time.milliseconds(10L) 改成 Time.seconds(10L) 后,其实是改变了时间窗口的大小,这会使以前在同一个窗口的数据现在被分在了两个窗口里,而聚合的时候是按照窗口进行聚合的,所以结果变了。 在 2020-06-01 22:41:14,"xue...@outlook.com" 写道: >如果说window的10毫秒的状态ValueState被超时逐出了,可以理解。但不带window的聚合操作是否意味着所有的key的

回复: 关于使用IngressTime,window过小的问题

2020-06-01 文章 1048262223
Hi sum的实现是aggregatefunction,每次输出只会输出当前窗口的聚合结果,结果不同可能是因为上游时间戳提取是按照ingestion提取的把1 10 11分配到了两个窗口中1一个窗口,10和11一个窗口 Best Yichao Yang 发自我的iPhone -- 原始邮件 -- 发件人: xue...@outlook.com https://go.microsoft.com/fwlink/?LinkId=550986应用 发件人:

回复: 关于使用IngressTime,window过小的问题

2020-06-01 文章 xue...@outlook.com
如果说window的10毫秒的状态ValueState被超时逐出了,可以理解。但不带window的聚合操作是否意味着所有的key的 ValueState都存在与StateBackend中,是否会无限制增长,超过集群的一些限制,比如内存、slot等会怎么样。 即使ValueState在window中被逐出,但代码中未明确指定TimeService和逐出器。 如果假设相同的key在被处理时在时空上间隔足够远,不带windows和带windows的输出结果是否还会不同? 发送自 Windows 10

回复: 关于使用IngressTime,window过小的问题

2020-06-01 文章 xue...@outlook.com
如果不使用window,那么输出会按照ValueState的存量的key的ValueState聚合 输出 ``` +++:2> (k1,1) +++:1> (k3,10) +++:2> (k1,11) +++:8> (k2,2) +++:2> (k1,22) +++:8> (k2,22) ``` 发送自

Re: pyflink 使用udf函数 处理成json字符串发送到kafka的格式问题

2020-06-01 文章 Xingbo Huang
客气客气,互相交流学习 Best, Xingbo jack 于2020年6月1日周一 下午9:07写道: > 非常感谢解惑,刚开始使用pyflink,不是很熟悉,还请多多指教 > > > > > > > 在 2020-06-01 20:50:53,"Xingbo Huang" 写道: > > Hi, > 其实这个是CSV connector的一个可选的 > quote_character参数的效果,默认值是",所以你每个字段都会这样外面包一层,你可以配置一下这个参数为\0,就可以得到你要的效果了。 > st_env.connect( > Kafka()

关于使用IngressTime,window过小的问题

2020-06-01 文章 xue...@outlook.com
Flink 1.10,windows 10 flink api验证 代码如下 ``` import org.apache.flink.api.java.functions.KeySelector; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.streaming.api.TimeCharacteristic; import org.apache.flink.streaming.api.datastream.DataStreamSource; import

Re: 疑问:flink sql 当一个env下多个insert语句共享一个view时,是否会影响view中kafka源表的offset提交

2020-06-01 文章 godfrey he
目前StreamTableEnvironment和TableEnvironment在DAG优化方面的行为自1.11开始都是一样的了,建议都使用StatementSet来支持多insert。TableEnvironment以后还会进一步的简化和整合。 Best, Godfrey wind.fly@outlook.com 于2020年5月28日周四 下午5:45写道: > Hi, > >

Re: pyflink 使用udf函数 处理成json字符串发送到kafka的格式问题

2020-06-01 文章 jack
非常感谢解惑,刚开始使用pyflink,不是很熟悉,还请多多指教 在 2020-06-01 20:50:53,"Xingbo Huang" 写道: Hi, 其实这个是CSV connector的一个可选的quote_character参数的效果,默认值是",所以你每个字段都会这样外面包一层,你可以配置一下这个参数为\0,就可以得到你要的效果了。 st_env.connect( Kafka() .version("0.11") .topic("logSink")

Re: pyflink 使用udf函数 处理成json字符串发送到kafka的格式问题

2020-06-01 文章 Xingbo Huang
Hi, 其实这个是CSV connector的一个可选的 quote_character参数的效果,默认值是",所以你每个字段都会这样外面包一层,你可以配置一下这个参数为\0,就可以得到你要的效果了。 st_env.connect( Kafka() .version("0.11") .topic("logSink") .start_from_earliest() .property("zookeeper.connect", "localhost:2181")

Re:用命令启动job

2020-06-01 文章 chaojianok
邮件里你上传的图片没有显示; 你的配置文件里没有设置 checkpoint 相关的配置,你可以参照 Flink 官网的这里设置一下,也可以在代码里手动设置。 在 2020-06-01 16:46:11,"sun" <1392427...@qq.com> 写道: 用bin/flink run -n -c com.toonyoo.bi.flink.Application jar/ty-bi-flink-1.0-SNAPSHOT.jar --topic member启动topic 为什么checkpoint都是0啊,我的配置文件在下面。 #

pyflink 使用udf函数 处理成json字符串发送到kafka的格式问题

2020-06-01 文章 jack
请教各位,我这边使用pyflink 消费kafka json字符串数据发送到kafka, 把kafka消息按照一个字段来处理, 数据输入: {"topic": "logSource", "message": "x=1,y=1,z=1"} 发送到kafka里面的数据结果如下: "{""topic"": ""logSource"", ""message"": ""x=1,y=1,z=1""}" 又被双引号包了一层, 我的udf函数中使用的是 json模块进行处理,请各位帮我看一下怎么样转成正常的json串。

Re: pyflink Table Api 使用udf函数报错 Given parameters do not match any signature.

2020-06-01 文章 jack
您理解的是对的,我测试了下,好像pyflink的udf函数不太支持python的可变参数 在 2020-06-01 14:47:21,"Dian Fu" 写道: >你传的第二个参数是string,这样试一下? >select("drop_fields(message, array('x'))") > >不太确定我是否理解了你的问题(如果上面不行的话,建议你发一下exception) > >> 在 2020年6月1日,下午1:59,jack 写道: >> >> >> >> >> >> >> >> 是的,对应参数没有填写正确,感谢; >>

Re: checkpoint失败讨论

2020-06-01 文章 Yun Tang
Hi 这个错误“could only be replicated to 0 nodes instead of minReplication (=1)”是HDFS不稳定导致的,无法将数据进行duplicate与Flink本身并无关系。 祝好 唐云 From: yanggang_it_job Sent: Monday, June 1, 2020 15:30 To: user-zh@flink.apache.org Subject: checkpoint失败讨论

??????????job

2020-06-01 文章 sun
??bin/flink run -n -c com.toonyoo.bi.flink.Application jar/ty-bi-flink-1.0-SNAPSHOT.jar --topic membertopic ??checkpoint0 # high-availability.zookeeper.client.acl: open #== # Fault

在yarn-session模式下怎么用rest api 触发savepoint并停止任务

2020-06-01 文章 wind.fly....@outlook.com
Hi,all: 本人当前用的flink版本1.10,通过yarn-session发布job,通过jobs/job/stop api 停止任务会报Unable to load requested file,问一下在yarn-session模式下没有这个api吗? Best, Junbao Zhang

Re: sql中使用Create view 报错

2020-06-01 文章 Benchao Li
Hi Kyle, 这个功能已经在1.11中merge进来了。1.11最近就会发布,到时候可以尝试下1.11 Kyle Zhang 于2020年6月1日周一 下午3:25写道: > Hi, > 最近在使用tEnv.sqlUpdate("create view ….的时候报错,Unsupported query: create > view。稍微看了一下,master上的SqlToOperationConverter.convert里是有“validated instanceof >

checkpoint失败讨论

2020-06-01 文章 yanggang_it_job
最近多个以rocksdb作为状态后端,hdfs作为远程文件系统的任务,频繁报错,这个报错有以下特征 1、报错之前这些任务都平稳运行,突然在某一天报错 2、当发现此类错误的时候,多个任务也会因相同的报错而导致checkpoint失败 报错信息如下 org.apache.hadoop.ipc.RemoteException(java.io.IOException): File

sql中使用Create view 报错

2020-06-01 文章 Kyle Zhang
Hi, 最近在使用tEnv.sqlUpdate("create view ….的时候报错,Unsupported query: create view。稍微看了一下,master上的SqlToOperationConverter.convert里是有“validated instanceof SqlCreateView”,这个判断的,1.10的分支上还没有,感觉这个功能应该挺常见的吧,Flink SQL CLI上也是支持create view的,还没合并是有什么考虑么。

?????? Kafka Consumer??????????????

2020-06-01 文章 Even
??pom??provided??jar?? ---- ??:"tison"https://ci.apache.org/projects/flink/flink-docs-stable/monitoring/debugging_classloading.html

FileInputFormat 使用问题

2020-06-01 文章 阿华田
使用FileInputFormat 递归读取hdfs文件,并添加过滤器。程序执行没有报错但是很快就执行完成也没有读取到数据,本地测试可以过滤并读取到数据,yarn集群上执行出现上述情况。 代码: //初始化任务参数 ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment(); FileInputFormat fileInputFormat = new TextInputFormat(new Path("hdfs://arc/success_fid_flow"));

Re: pyflink Table Api 使用udf函数报错 Given parameters do not match any signature.

2020-06-01 文章 Dian Fu
你传的第二个参数是string,这样试一下? select("drop_fields(message, array('x'))") 不太确定我是否理解了你的问题(如果上面不行的话,建议你发一下exception) > 在 2020年6月1日,下午1:59,jack 写道: > > > > > > > > 是的,对应参数没有填写正确,感谢; > 另外请教,udf函数是不是目前不支持python的可变参数,我使用可变参数依然会报错参数不对的问题。 > > > > > > > > > > > > 在 2020-06-01 11:01:34,"Dian

??????????jenkins????flink

2020-06-01 文章 sun
??jenkinsflink

??????????jenkens????flink

2020-06-01 文章 sun
??jenkensflink