rocksdb作为statebackend时,TM节点挂掉了,为何任务不能恢复呢?

2021-01-11 文章 Carmen Free
hi, rocksdb作为statebackend时,TM节点挂掉了,为何任务不能恢复呢? 1、环境说明 flink版本:1.10.2 操作系统:centos 7 2、集群说明(当前模拟了2节点) 节点A | 节点B 角色| JM、TM|TM taskslot | 4 | 4 3、statebackend配置 # rocksdb作为状态后备 state.backend: rocksdb #

Re: Flink SQL 可以使用异步IO特性吗

2021-01-11 文章 kenyore
感谢如此详尽的回复! 但是我的场景似乎无法直接使用维表join。 因为我需要把look up的结果(会是多行数据),拼成一个数组放入数据行。 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Re: Flink SQL 可以使用异步IO特性吗

2021-01-11 文章 金则林
Hello,kenyore. 在维表的DDL的WITH参数中添加async='true',Async 相关参数如下。 参数说明是否必填备注 async 是否开启异步请求 否 默认值为fasle。 asyncResultOrder 异步结果顺序 否 取值如下: - unordered(默认值):无序。 - ordered:有序。 asyncTimeoutMs 异步请求的超时时间 否 单位毫秒,默认值为3分钟。 asyncCapacity 异步请求的队列容量 否 默认值为100。 asyncCallbackThreads 回调处理线程数 否

Flink SQL 可以使用异步IO特性吗

2021-01-11 文章 kenyore
hi,all 我有一个场景是使用自定义的ScalaFunction实现所需要的look up功能(从数据库查询并将多行数据拼成一个数组)。 我正在试图尝试使用异步IO的方式以提高它的性能,但是似乎只有Stream API提供了该特性支持。 大家有什么建议吗?或者有其他优化思路吗? 谢谢! -- Sent from: http://apache-flink.147419.n8.nabble.com/

Flink代码一直报 java.lang.NullPointerException错误,但变量明明初始化了,却仍然有该错误,找不到原因,请诸位指教。谢谢

2021-01-11 文章 JackJia
请教个问题,代码一直报 java.lang.NullPointerException错误,但变量明明初始化了,却仍然有该错误,找不到原因,请诸位指教。谢谢。 错误如下: 2021-01-12 04:36:09,950 INFO org.apache.flink.runtime.taskmanager.Task - Window(TumblingEventTimeWindows(6), EventTimeTrigger, WashDataDetectionFunction) -> Map -> Map -> Sink: Unnamed

Re: flink编译报错

2021-01-11 文章 Ruguo Yu
试下这个命令 mvn clean install -DskipTests -Dfast -Drat.skip=true -Dhaoop.version=2.7.6 -Dinclude-hadoop -Dscala-2.11 -T2C 其中,-Dhaoop.version 为 hadoop 版本号 -- Sent from: http://apache-flink.147419.n8.nabble.com/

flink1.12-sql??current_date??????????????????

2021-01-11 文章 ??????
idea??flink-sql??current_dategroup by

flinksql1.12建view流式读取hive分区表不支持,报错信息:[ERROR] Could not execute SQL statement. Reason: java.lang.UnsupportedOperationException: class org.apache.calcite.sql.SqlSyntax$6: SPECIAL

2021-01-11 文章 yanzi
在sql client端,两种方式读取hive分区表如下: 1、Flink SQL> select platform,uv FROM vip_dataeye_valid.dm_log_validuv_daily_5min /*+ OPTIONS('streaming-source.enable'='true','streaming-source.monitor-interval'='5 min','streaming-source.consume-start-offset'='dt=20210111/hm=1000') */ 可以读取到数据; 2、Flink SQL>

??????Flink1.12.0 sql-client????hive????

2021-01-11 文章 ????
Hi yujianbo, FlinkHive??--??Flink1.12 https://mp.weixin.qq.com/s/99ehmNzJVwW3cOrw_UkGsg FlinkHive??Hive Catalog??Hive Dialect--??Flink1.12 https://mp.weixin.qq.com/s/YuR-s5zCtBz_5ku_bttbaw ??

Flink1.12.0 sql-client连接hive报错

2021-01-11 文章 yujianbo
一、环境 1、Flink1.12.0 2、hive 2.1.1 3、下载release-1.12编译的jar包,用export HADOOP_CLASSPATH=`hadoop classpath`连接Hadoop集群 4、flink的lib目录下是这些包:(是不是还需要加一下什么包?) flink-csv-1.12.jar flink-dist_2.11-1.12.jar flink-json-1.12.jar flink-shaded-zookeeper-3.4.14.jar flink-table_2.11-1.12.jar

flink编译报错

2021-01-11 文章 penguin.
求助!编译flink1.11.1源码时,报错:Failed to execute goal com.github.eirslett:frontend-maven-plugin:1.6:install-node-and-npm (install node and npm) on project flink-runtime-web_2.11: Could not download Node.js: Got error code 404 from the server. 按照网上说的修改了flink-runtime-web的pom文件依然是这个问题

flink1.12流式写hive任务暂停问题

2021-01-11 文章 lhuiseu
一个流式写Hive的任务,调用flink restapi stop 方法暂停作业。stop暂停任务的时候,应该是会触发一次savepoint 然后 cancel。 原本以为,暂停任务触发savepoint,只是保存了状态,并不会提交分区。等到任务恢复,再按照事件时间的watermark等分区条件OK后,执行分区提交。 实际上发现,只要是触发SP,就会提交分区。查看TM日志,发现执行SP时,出现了一次 MAX_CHECKPOINT 的checkpointid。定位源码,应该是有地方调用了 AbstractStreamingWriter.endInput 请问下,stop 为什么触发

flink1.12流式写hive任务暂停问题

2021-01-11 文章 lhuiseu
一个流式写Hive的任务,调用flink restapi stop 方法暂停作业。stop暂停任务的时候,应该是会触发一次savepoint 然后 cancel。 原本以为,暂停任务触发savepoint,只是保存了状态,并不会提交分区。等到任务恢复,再按照事件时间的watermark等分区条件OK后,执行分区提交。 实际上发现,只要是触发SP,就会提交分区。查看TM日志,发现执行SP时,出现了一次 MAX_CHECKPOINT 的checkpointid。定位源码,应该是有地方调用了 AbstractStreamingWriter.endInput 请问下,stop 为什么触发

Flink IDEA中使用Iceberg

2021-01-11 文章 Luna Wong
代码如下,Flink metastore报错日志: AlreadyExistsException(message:Database default already exists) 但是我已经 USE了 luna db啊?很奇怪 tEnv.executeSql("CREATE CATALOG iceberg_hive WITH (\n" + " 'type'='iceberg',\n" + " 'catalog-type'='hive',\n" + "

Re: 请教个Flink savepoint的问题

2021-01-11 文章 占英华
好的,感谢您的帮助! > 在 2021年1月11日,20:23,Yun Tang 写道: > > Hi, > > 没有暴露现成的API,但是可以参照测试用例的写法,给jobGraph设置 savepointRestoreSettings [1]。 > > [1] >

Re: 请教个Flink savepoint的问题

2021-01-11 文章 Yun Tang
Hi, 没有暴露现成的API,但是可以参照测试用例的写法,给jobGraph设置 savepointRestoreSettings [1]。 [1] https://github.com/apache/flink/blob/ab87cf4ec0260c30194f3d8e75be1f43318aa32a/flink-tests/src/test/java/org/apache/flink/test/checkpointing/ResumeCheckpointManuallyITCase.java#L383 祝好 唐云

回复:flink版本升级问题咨询

2021-01-11 文章 xuhaiLong
我试过 flink 1.7 升级到 1.10。如果使用到了 table api 涉及 group By 的话 savePoint恢复有问题,其他没发现过什么问题。或者可以使用下 process api 写一份数据,启动 job 在2021年1月7日 09:50,zhang hao 写道: 目前现状:公司flink任务都是跑在flin1.7当中,通过公司开发的流计算平台进行提交到flink yarn集群,flink on yarn 基于flink

Re: flink 1.10 将流设置为 idle

2021-01-11 文章 Akisaya
图片好像发送不出去,这里贴一下代码 StreamSourceContexts#getSourceContext public static SourceFunction.SourceContext getSourceContext( TimeCharacteristic timeCharacteristic, ProcessingTimeService processingTimeService, Object checkpointLock, StreamStatusMaintainer

flink 1.10 将流设置为 idle

2021-01-11 文章 Akisaya
flink 1.12 的 watermark strategy 重构之后,添加了一个 withIdleness 方法能将一个流在一定时间没有数据产生时设置为 idle 流 但是在 1.10 中没有这样的方法可以设置。 看了下 1.10 的代码发现在 StreamSourceContext 里是可以根据参数设置 idleTimeout 的,但是在 StreamSource 的 run 方法里实际使用该方法的时候直接将 idleTimeout 写死成 -1 了 [image: image.png] StreamSource [image: image.png]

请教个Flink savepoint的问题

2021-01-11 文章 yinghua...@163.com
Flink APi 中我们在java代码中使用客户端调用类ClusterClient如下的方法停止了任务: CompletableFuture stopWithSavepoint(JobID var1, boolean var2, @Nullable String var3);然后我们保存了该任务的savepoint信息,那恢复时没看到对应的恢复方法,找了些资料都是通过命令来恢复,有没有直接调用Java API 层次的方法来恢复任务? yinghua...@163.com

Re: Sql Client读取Kafka报错:Could not find any factory for identifier 'kafka'

2021-01-11 文章 zhisheng
hello 你放 flink-sql-connector-kafka_2.11-1.11.3.jar 后有重启 sql client 和 集群吗? Best zhisheng air23 于2021年1月11日周一 下午1:32写道: > 下载个 flink-sql-connector-kafka 这个jar 放在lib下试下 > > > > > > > > > > > > > > > > > > 在 2021-01-09 02:08:12,"inza9hi" 写道: > >搜了下之前的邮件,貌似没有发现和我同样的问题。 > > > >lib 下的Jar >