回复:请问一下 :启动session 时 ,报错:Could not write the Yarn connection information.

2019-11-21 文章 贺小令(晓令)
请问你用的flink版本是? thanks, godfrey -- 发件人:李军 发送时间:2019年11月22日(星期五) 11:10 收件人:user-zh 主 题:请问一下 :启动session 时 ,报错:Could not write the Yarn connection information. 报错图片和详细内容如下 https://blog.csdn.net/qq_37518574/article/details/103197224

请问一下 :启动session 时 ,报错:Could not write the Yarn connection information.

2019-11-21 文章 李军
报错图片和详细内容如下 https://blog.csdn.net/qq_37518574/article/details/103197224 另外启动这个之前要启动哪些,yarn 和hdfs 都已经启动了; 初学,虚心请教,感谢。

Re: 关于flink1.7.2checkpoint本地文件存储,设置文件个数的问题

2019-11-21 文章 Congxian Qiu
Hi 每个 Checkpoint 生成多少文件,由作业决定,这个不需要用户自己手动设置。 Best, Congxian Godfrey Johnson 于2019年11月22日周五 上午9:26写道: > 不太明白你说的是什么文件个数。 > > 如果是CKP的保留个数,可以参考: > https://ci.apache.org/projects/flink/flink-docs-stable/dev/stream/state/checkpointing.html#state-checkpoints-num-retained > > > 2019年11月21日

回复:DML去重,translate时报错

2019-11-21 文章 叶贤勋
Hi JingsongLee, 晓令: 谢谢你们的答疑。 备注issue链接:https://issues.apache.org/jira/projects/FLINK/issues/FLINK-14899?filter=allissues | | 叶贤勋 | | yxx_c...@163.com | 签名由网易邮箱大师定制 在2019年11月21日 22:00,贺小令(晓令) 写道: hi 叶贤勋: 你的SQL里先 ORDER BY proc desc ,然后取 rownum = 1, 等价于 last row 的逻辑。此时会产生

Re: 关于flink1.7.2checkpoint本地文件存储,设置文件个数的问题

2019-11-21 文章 Godfrey Johnson
不太明白你说的是什么文件个数。 如果是CKP的保留个数,可以参考:https://ci.apache.org/projects/flink/flink-docs-stable/dev/stream/state/checkpointing.html#state-checkpoints-num-retained > 2019年11月21日 下午10:41,?青春狂-^ 写道: > > Hi > 关于flink的checkpoint存储的设置有几种方式,mem,hdfs,rocksdb,本地文件 > >

????flink1.7.2checkpoint????????????????????????????????

2019-11-21 文章 ???????-^
Hi flink??checkpoint??mem??hdfs??rocksdb?? checkpoint?

Re: Error:java: 无效的标记: --add-exports=java.base/sun.net.util=ALL-UNNAMED

2019-11-21 文章 刘建刚
Thank you very much. It works for me. > 在 2019年11月14日,下午1:06,Biao Liu 写道: > > Hi, > > I have encountered the same issue when setting up a dev environment. > > It seems that the my Intellij (2019.2.1) unexpectedly activates java11 > profile of maven. It doesn't match the Java compiler (JDK8).

回复:DML去重,translate时报错

2019-11-21 文章 贺小令(晓令)
hi 叶贤勋: 你的SQL里先 ORDER BY proc desc ,然后取 rownum = 1, 等价于 last row 的逻辑。此时会产生 retraction,但是结果表(user_dist) 没有定义 pk 信息,此时是不支持的,即报你看到的错误。 如果将 ORDER BY proc desc 改为 ORDER BY proc asc,加上 rownum = 1,等价于 first row 的逻辑,不会产生retraction,此时的结果表(user_dist) 是可以满足要求的。 但是 blink planner 目前处理 PROCTIME() 有问题,sql

Re: DML去重,translate时报错

2019-11-21 文章 JingsongLee
Hi 叶贤勋: 现在去重现在支持insert into select 语法。 问题在于你的这个SQL怎么没产出UniqueKey 这里面可能有blink-planner的bug。 CC: @Jark Wu @godfrey he (JIRA) Best, Jingsong Lee -- From:叶贤勋 Send Time:2019年11月21日(星期四) 16:20 To:user-zh@flink.apache.org

DML去重,translate时报错

2019-11-21 文章 叶贤勋
Hi 大家好: Flink版本1.9.0, SQL1: CREATE TABLE user_log ( user_id VARCHAR, item_id VARCHAR, category_id VARCHAR, behavior VARCHAR, ts TIMESTAMP ) WITH ( 'connector.type' = 'kafka', 'connector.version' = 'universal', 'connector.topic' = 'user_behavior',