退订

2024-05-29 Thread jszhouch...@163.com
退订

Re: use flink 1.19 JDBC Driver can find jdbc connector

2024-05-13 Thread kellygeorg...@163.com
退订 Replied Message | From | abc15...@163.com | | Date | 05/10/2024 12:26 | | To | user-zh@flink.apache.org | | Cc | | | Subject | Re: use flink 1.19 JDBC Driver can find jdbc connector | I've solved it. You need to register the number of connections in the jar of gateway

Re: How to enable RocksDB native metrics?

2024-04-07 Thread zbz-163
You can take a look at the document. [ https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/deployment/config/#rocksdb-native-metrics ] Thanks, Zbz > 2024年4月7日 13:41,Lei Wang 写道: > > > Using big state and want to do some performance tuning, how can i enable > RocksDB native

flink集群如何将日志直接写入elasticsearch中?

2024-03-13 Thread kellygeorg...@163.com
有没有比较方便快捷的解决方案?

回复:flink operator 高可用任务偶发性报错unable to update ConfigMapLock

2024-03-11 Thread kellygeorg...@163.com
有没有高手指点一二???在线等 回复的原邮件 | 发件人 | kellygeorg...@163.com | | 日期 | 2024年03月11日 20:29 | | 收件人 | user-zh | | 抄送至 | | | 主题 | flink operator 高可用任务偶发性报错unable to update ConfigMapLock | jobmanager的报错如下所示,请问是什么原因? Exception occurred while renewing lock:Unable to update ConfigMapLock Caused

flink operator 高可用任务偶发性报错unable to update ConfigMapLock

2024-03-11 Thread kellygeorg...@163.com
jobmanager的报错如下所示,请问是什么原因? Exception occurred while renewing lock:Unable to update ConfigMapLock Caused by:io.fabric8.kubernetes.client.Kubernetes Client Exception:Operation:[replace] for kind:[ConfigMap] with name:[flink task xx- configmap] in namespace:[default] Caused by:

Re: Flink-1.18 mvn test error

2023-11-10 Thread zbz-163
Hi,Yuxin Tan: Thank you very much. My problem has been resolved. Best, Zbz

Flink-1.18 mvn test error

2023-11-08 Thread zbz-163
ute (MojoExecutor.java:351) at org.apache.maven.lifecycle.internal.MojoExecutor.execute (MojoExecutor.java:215) at org.apache.maven.lifecycle.internal.MojoExecutor.execute (MojoExecutor.java:171) at org.apache.maven.lifecycle.internal.MojoExecutor.execute (MojoExecutor.java:

flink写kafka 事务问题

2023-06-15 Thread 163
据我了解,kafka支持事务,开启checkpoint及exactly-once后仅当checkpoint执行完毕后才能将数据写入kafka中。测试:flink读取kafka的topic a写入topic b,开启checkpoint及exactly-once,flink未执行完新一次的checkpoint,但topic b已经可以消费到新数据,这是什么原因?请大家指教!

退订

2022-09-10 Thread xudongjun123...@163.com
退订 xudongjun123...@163.com

退订

2022-09-10 Thread xudongjun123...@163.com
退订 xudongjun123...@163.com

退订

2022-08-24 Thread xuxuewe...@163.com
退订 xuxuewe...@163.com

如何在flink中正确使用外部数据库连接

2022-07-23 Thread lxk7...@163.com
look up除了缓存之外还有没有其他更好的优化手段?或者有什么其他的方案可以替代? lxk7...@163.com

同步hive报错

2022-07-17 Thread ynz...@163.com
-4569-8d93-600a8c51abbe.jar:1.14.4] at org.apache.flink.runtime.rpc.akka.AkkaRpcActor.handleMessage(AkkaRpcActor.java:163) ~[flink-rpc-akka_95cbfbf8-1d54-4569-8d93-600a8c51abbe.jar:1.14.4] at akka.japi.pf.UnitCaseStatement.apply(CaseStatements.scala:24) [flink-rpc-akka_95cbfbf8

退订

2022-07-16 Thread wangt...@163.com
退订

Re: Re: flink-hudi-hive

2022-07-12 Thread ynz...@163.com
: Total file length is 82894 bytes. jobmanager.out : Total file length is 0 bytes. launch_container.sh : Total file length is 21758 bytes. prelaunch.err : Total file length is 0 bytes. prelaunch.out : Total file length is 100 bytes. best, ynz...@163.com From: Weihua Hu Date: 2022-07-12 23:18

Re: Re: flink-hudi-hive

2022-07-11 Thread ynz...@163.com
[akka.tcp://flink@n103:35961] has failed, address is now gated for [50] ms. Reason: [Association failed with [akka.tcp://flink@n103:35961]] Caused by: [java.net.ConnectException: Connection refused: n103/192.168.10.227:35961] best, ynz...@163.com From: Weihua Hu Date: 2022-07-11 19:46

flink-hudi-hive

2022-07-11 Thread ynz...@163.com
Hi, 我正在使用flink将数据写入hudi并同步至hive,将任务提交到yarn后,我从flink web ui看到:相关任务反复初始化,task managers无任何信息。日志中也无明确错误提示 ; 当我删除代码中sync_hive相关配置,并且不改变其他配置,数据能正常写入hudi ; 我使用的hudi-0.11.1,flink-1.14.4,hadoop-3.3.1,hive-3.1.3 ; best, ynz...@163.com

Re: Re: Flink 使用interval join数据丢失疑问

2022-06-12 Thread lxk7...@163.com
影响 3.还有一个问题可能是我没有阐述清楚,我在sql里使用inner join,没有注册水印,那么两个流的join应该是以处理时间来定义的?那么表的state的过期是否也是以处理时间来定义? lxk7...@163.com 发件人: Shengkai Fang 发送时间: 2022-06-11 20:35 收件人: user-zh 主题: Re: Re: Flink 使用interval join数据丢失疑问 hi, 对于第一点,丢数据的情况有很多。首先,要确认是不是 JOIN 算子丢数据(SINK 的使用不当也会丢数据)。如果明确了是 join 算子丢的数据,建议明确下丢的

回复: Re: Flink 使用interval join数据丢失疑问

2022-06-10 Thread lxk7...@163.com
数据正常。 3.使用流转表,sql interval join,从数据中的事件时间提取水印,对比完结果数据,数据少。 从结果上看,我不太明白为什么sql里inner join能保证数据准确,而interval join不行?有什么好的方式或者思路能让我更好的去尝试了解这个问题产生的原因 针对第二种方式,我的疑问是,sql里没有设置水印,那么表的state过期是以处理时间来计算吗?针对这种设置了表state过期时间的join,我能理解为这个inner join其实是一个window join吗? lxk7...@163.com 发件人: lxk 发送时间: 2022-06

flink运行一段时间后TaskManager退出,报OutOfMemoryError: Metaspace

2022-06-07 Thread weishishuo...@163.com
-343be43b7874de49f6ce1d8bcb6a90a384203530-2e5afb6f8bf4834164c1bb92aaf97a00:2.2.0] weishishuo...@163.com

Re: Re: Flink写入CK数据丢失问题

2022-06-02 Thread lxk7...@163.com
任何问题,我会继续关注整体的数据量差异。 lxk7...@163.com 发件人: yue ma 发送时间: 2022-06-02 15:05 收件人: user-zh 主题: Re: Flink写入CK数据丢失问题 你好,你可以先看看你们的任务是否开启了 checkpoint ,以及任务运行的过程中是否发生了 failover lxk 于2022年6月2日周四 11:38写道: > 各位,请教个问题 > 目前使用flink往ck写入数据,使用的是datastream > api以及rocksdb状态后端,程序中了开了两个窗口,都是10秒级别。同时

关于flinksql聚合函数实现的学习疑问

2022-06-01 Thread hdxg1101300...@163.com
windowFunction) 是传入一个聚合函数和一个窗口函数,这种怎么实现灵活的组合;或者flinksql是怎么样实现的,想了解这一块的代码?但是不知道从哪里入手。希望有朋友可以指定下。 谢谢! hdxg1101300...@163.com

回复: Flink异步IO使用问题

2022-05-26 Thread lxk7...@163.com
重发下图 https://sm.ms/image/12XQHAOZdYoqraC https://sm.ms/image/zJ2gfmxvSc85Xl7 lxk7...@163.com 发件人: lxk7...@163.com 发送时间: 2022-05-26 20:54 收件人: user-zh 主题: Flink异步IO使用问题 我在程序里使用了异步IO,但是好像识别不了这个list类型的数据 lxk7...@163.com

Flink异步IO使用问题

2022-05-26 Thread lxk7...@163.com
我在程序里使用了异步IO,但是好像识别不了这个list类型的数据 lxk7...@163.com

Re: Re: [Internet]Re: Re: Some question with Flink state

2022-05-24 Thread lxk7...@163.com
刚看了下keygroup的原理,前面的内容大致能理解了,对于下面这段话 "map-state的话相当于某些固定的key group里面的key都可以通过map-state的user-key去分别存储" 我理解 是因为如果使用value-state,一个task会存在多个key,不同的key的内容会进行替换,而使用map的话,就算同一个task有多个key,根据用户自定义的key还是可以匹配到的。 这样的话,大部分场景其实都适合使用map-state。 lxk7...@163.com From: jurluo(罗凯) Date: 2022-0

Re: Re: Some question with Flink state

2022-05-24 Thread lxk7...@163.com
    return "data{" +     "id='" + id + '\'' +     ", goods='" + goods + '\'' +     ", pageName='" + pageName + '\'' +     '}';     } } class MyKeySelector implements KeySelector{     @Override

Re: Re: Some question with Flink state

2022-05-24 Thread lxk7...@163.com
void setPageName(String pageName) { this.pageName = pageName; } @Override public String toString() { return "data{" + "id='" + id + '\'' + ", goods='" + goods + '\'' + ", pageName='" + pag

Re: Re: Some question with Flink state

2022-05-24 Thread lxk7...@163.com
如果是两次keyby的问题,我可以直接在一次keyby里将两个数据给拼接成字符串,这样的方式是跟两次keyby效果一样吗? lxk7...@163.com From: Xuyang Date: 2022-05-24 20:51 To: user-zh Subject: Re:Re: Re: Some question with Flink state 看起来你keyby了两次,可以自定义一个keyselector来替代这两个。另外如果担心相同key没有被分到同一个并行度时,可以在某个并行度的算子下将数据和该subtask的并行度index打出来,debug调查下 在 2022

Re: Re: Some question with Flink state

2022-05-24 Thread lxk7...@163.com
好的,我会尝试去弄一下。 lxk7...@163.com From: Xuyang Date: 2022-05-24 20:51 To: user-zh Subject: Re:Re: Re: Some question with Flink state 看起来你keyby了两次,可以自定义一个keyselector来替代这两个。另外如果担心相同key没有被分到同一个并行度时,可以在某个并行度的算子下将数据和该subtask的并行度index打出来,debug调查下 在 2022-05-24 20:43:19,"lxk7...@163.com" 写道: >

Re: Re: Some question with Flink state

2022-05-24 Thread lxk7...@163.com
https://s2.loli.net/2022/05/24/SgAWefJpaxtOH5l.png https://s2.loli.net/2022/05/24/54dZkr19QCh3Djf.png 这样呢 lxk7...@163.com From: Xuyang Date: 2022-05-24 20:17 To: user-zh Subject: Re:Re: Re: Some question with Flink state Hi, 你的图还是挂了,可以使用图床工具试一下 在 2022-05-24 13:50:34,"lxk7...@16

Re: Re: Some question with Flink state

2022-05-24 Thread lxk7...@163.com
[URL=https://s2.loli.net/2022/05/24/SgAWefJpaxtOH5l.png][IMG]https://s2.loli.net/2022/05/24/SgAWefJpaxtOH5l.png[/IMG][/URL] [URL=https://s2.loli.net/2022/05/24/54dZkr19QCh3Djf.png][IMG]https://s2.loli.net/2022/05/24/54dZkr19QCh3Djf.png[/IMG][/URL] 看下这个是否能看见图片 lxk7...@163.com From: Xuyang Date

Re: Re: Some question with Flink state

2022-05-23 Thread lxk7...@163.com
图片好像有点问题,重新上传一下 lxk7...@163.com From: Hangxiang Yu Date: 2022-05-24 12:09 To: user-zh Subject: Re: Re: Some question with Flink state 你是用data stream作业吗,相同key如果分配到了不同的并行度,有可能是和你写的key selector相关(你可以参照下KeySelector的comments去看是否符合它的规范); 或者方便的话你可以分享下你的key selector相关的逻辑和使用state的逻辑; On Tue, May 24

Re: Re: Some question with Flink state

2022-05-23 Thread lxk7...@163.com
以下是我的代码部分 这是最新的一版,根据测试的时候没有啥问题 但是之前使用value state的时候能从数据上看出不对 lxk7...@163.com From: Hangxiang Yu Date: 2022-05-24 12:09 To: user-zh Subject: Re: Re: Some question with Flink state 你是用data stream作业吗,相同key如果分配到了不同的并行度,有可能是和你写的key selector相关(你可以参照下KeySelector的comments去看是否符合它的规范); 或者方便的话你可以分享下你

Re: Re: Some question with Flink state

2022-05-23 Thread lxk7...@163.com
一个key的数据都会被同一个task处理。 lxk7...@163.com From: Hangxiang Yu Date: 2022-05-23 23:09 To: user-zh; lxk7491 Subject: Re: Some question with Flink state Hello, All states will not be shared in different parallelisms. BTW, English questions could be sent to u...@flink.apache.org. Best, Hangxiang

Some question with Flink state

2022-05-23 Thread lxk7...@163.com
the value is Thread-Level But when I used map-state,the value is correctly. I mean the map-state was shared by every parallelism. looking forward to your reply lxk7...@163.com

退订

2022-05-22 Thread xudongjun123...@163.com
退订 xudongjun123...@163.com

Re: Re: flink sql无法读取Hive映射的HBase表

2022-05-16 Thread 18579099...@163.com
第一次弄,不知道这么写的对不对 https://issues.apache.org/jira/projects/FLINK/issues/FLINK-27604 18579099...@163.com 发件人: Jingsong Li 发送时间: 2022-05-13 15:06 收件人: user-zh 主题: Re: Re: flink sql无法读取Hive映射的HBase表 Hi, 推荐 https://www.deepl.com/translator 非常好用 我记得对Hive Custom Storage Handler(hbase)是有问题的 Best

Re: Re: flink sql无法读取Hive映射的HBase表

2022-05-13 Thread 18579099...@163.com
我英文能力不允许啊 18579099...@163.com 发件人: yuxia 发送时间: 2022-05-11 15:11 收件人: user-zh 主题: Re: flink sql无法读取Hive映射的HBase表 不好意思,我尝试复现你的问题,但是我没有 hbase 环境,不过看起来是只有当 STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' 有问题? 我之后空了再debug 看看。 不过我看了一下 flink 这块的代码,从 flink 这块的代码来看,应该是 get 这个

Re: Re: flink sql无法读取Hive映射的HBase表

2022-05-09 Thread 18579099...@163.com
-1.13.6.jar:1.13.6] at org.apache.flink.table.client.gateway.local.LocalExecutor.executeOperation(LocalExecutor.java:213) ~[flink-sql-client_2.11-1.13.6.jar:1.13.6] ... 12 more 18579099...@163.com 发件人: yuxia 发送时间: 2022-05-10 09:32 收件人: user-zh 主题: Re: flink sql无法读取Hive映射的HBase表 用的是 Hive

flink sql无法读取Hive映射的HBase表

2022-05-09 Thread 18579099...@163.com
: Failed to get table schema from deserializer。 不知道有没有什么办法可以解决这个问题,使用spark引擎是可以读取到数据的。 18579099...@163.com

【Could we support distribute by For FlinkSql】

2022-05-08 Thread lpengdr...@163.com
; lpengdr...@163.com

web ui中能查看到job失败的原因吗?

2022-04-21 Thread weishishuo...@163.com
.onMissingDeploymentsOf(JobMaster.java:248) ... 34 more ``` 不知道root cause是什么,web 界面是否可以查到呢?还是到哪里去查看呢? weishishuo...@163.com

flink-connector和flink-sql-connector的区别

2022-04-21 Thread weishishuo...@163.com
cdc项目中每种connector都分成flink-connector-xxx和flink-sql-connector-xxx,比如flink-connector-mysql-cdc和flink-sql-connector-mysql-cdc,这两个的区别是什么呢?在什么场景下用前者,什么场景下用后者? weishishuo...@163.com

回复: flink发布集群端运行,如何在sink或source中使用springboot的bean

2022-04-18 Thread wch...@163.com
(SelectStockJob.getClass, profiles) } repository = SpringContextHolder.getBean(classOf[xxxRepository]) } wch...@163.com 发件人: 676360...@qq.com.INVALID 发送时间: 2022-04-18 14:28 收件人: user-zh@flink.apache.org 主题: flink发布集群端运行,如何在sink或source中使用springboot的bean 您好: 首先很感谢您能在百忙之中看到我的邮件。在使用flink框架过程中我遇到了一些

使用问题咨询:Postgres 数据库作为 Catalog 时如何设置一些其他参数

2022-03-23 Thread 17610801...@163.com
使用 Postgres 数据库作为 Catalog 时如何设置一些其他参数,例如sink.buffer-flush.interval,sink.buffer-flush.max-rows 17610801...@163.com

Re: 实时数据入库怎样过滤中间状态,保证最终一致

2022-02-28 Thread 18703416...@163.com
e.seconds(10)).reduce((a,b)->b).addSink() > > 实际上逆序输出了窗口内的所有记录。 > > 谢谢, > > 王磊 > > > > On Mon, Feb 28, 2022 at 9:59 AM 18703416...@163.com <18703416...@163.com> > wrote: > >> keyBy 算子之后接 timewindow 窗口, 每个窗口如果有多条数据就取最新的一条。 至于对数据库的压力,取决于这个窗口的大小

Re: 实时数据入库怎样过滤中间状态,保证最终一致

2022-02-27 Thread 18703416...@163.com
keyBy 算子之后接 timewindow 窗口, 每个窗口如果有多条数据就取最新的一条。 至于对数据库的压力,取决于这个窗口的大小 > 2022年2月25日 下午6:45,Lei Wang 写道: > > 场景描述: > Kafka 中的数据直接入到 MySQL 数据库中,数据格式如下: > order_id status > 只有两个字段, order_id 为主键,以 replace 覆盖方式写入到数据库中。 > > 对同一个 order_id, status 变化很频繁,为不对数据库造成压力,不会对每一条记录都做入库操作,但一定要保证这个 order_id >

Re: 如何按比例丢弃kafka中消费的数据

2022-02-27 Thread 18703416...@163.com
自定义 kafkasource 的 DeserializationSchema 丢弃的返回 null, source 的下一个filter 算子进行过滤即可 > 2022年2月26日 上午9:01,jack zhang 写道: > > 1、flink程序资源有限,kafka中数据比较多,想要按一定比例丢弃数据(或者其它策略),减轻flink 程序压力,有什么方法吗?

Re: flink状态共享

2022-02-25 Thread 18703416...@163.com
如果不同算子 需要共享状态,是否考虑 归为一个算子进行处理,同理后面的算子也是 > 2022年2月25日 下午4:30,huangzhi...@iwgame.com 写道: > > 对于keyed datastream 不同的算子之间是否能够共享同一状态,或者后面的算子任务,是否可以拿到前一个算子任务中的状态? > > > > huangzhi...@iwgame.com

Re: 如何给flink的输出削峰填谷?

2022-01-27 Thread 18703416...@163.com
类似kafka这样的消息管道应该用来 削峰填谷, 可以先sink 至kafka,再从kafka -> db > 2022年1月26日 上午2:11,Jing 写道: > > Hi Flink中文社区, > > 我碰到一个这样的问题,我的数据库有write throttle, 我的flink > app是一个10分钟窗口的聚合操作,这样导致,每10分钟有个非常大量的写请求。导致数据库的sink有时候会destroy. > 有什么办法把这些写请求均匀分布到10分钟吗? > > > 谢谢, > Jing

退订

2022-01-10 Thread xingb...@163.com
退订

Re: 关于时间窗口的问题

2022-01-09 Thread 18703416...@163.com
你好,我理解你的意思了。 可以看下 flink-cep 相关内容, 利用模式匹配去实现 > 2022年1月8日 下午7:10,18765295...@163.com 写道: > > 您好: > 请教一个问题, > 例如:开启一个5秒钟的滚动窗口,当key001的两条数据进来时,没有满足时间触发,但是当key002的数据进来满足窗口触发条件,会将key001的两条数据输出出去。 > > 我想实现的是一个基于事件时间设置的滚动窗口,当key001的数据到来时,没有满足时间时,不会因为key002的数据到来触发key001的数据进行输出。 >

关于时间窗口的问题

2022-01-08 Thread 18765295...@163.com
您好: 请教一个问题, 例如:开启一个5秒钟的滚动窗口,当key001的两条数据进来时,没有满足时间触发,但是当key002的数据进来满足窗口触发条件,会将key001的两条数据输出出去。 我想实现的是一个基于事件时间设置的滚动窗口,当key001的数据到来时,没有满足时间时,不会因为key002的数据到来触发key001的数据进行输出。 每个key都有一个属于自己的时间窗口,不会受其他分组key的影响,并且可以为每个key的时间窗口设置一个基于数量和时间的触发器,当满足数量时触发或者时间到了触发。 经过测试发现,现在设置的时间窗口里面会有不同key的数据在一起

【Log4j.properties使用AsyncAppender】

2021-12-16 Thread lpengdr...@163.com
Hi: flink使用log4j.properties配置,.properties配置似乎没有办法配置AsyncAppender,所以在flink的日志没有办法使用AsyncAppender了吗?是否有其他的办法可以绕行 lpengdr...@163.com

回复: Re: flink sql支持细粒度的状态配置

2021-12-09 Thread gygz...@163.com
TTL的配置再调用每个execNode转换成operator的方法,来做到Transformation级别的TTL控制,这个配置开放给平台的用户,通过Transformation的id做识别,是否能给一些建议 gygz...@163.com 发件人: Yun Tang 发送时间: 2021-12-09 10:57 收件人: user-zh 主题: Re: flink sql支持细粒度的状态配置 Hi 你好, 我认为这是一个很好的需求,对于data stream以及python API来说,state TTL都是通过API逐个配置的,你的需求就可以直接满足。但是对于SQL来说,由于

flink sql支持细粒度的状态配置

2021-12-07 Thread gygz...@163.com
个任务每个sql配置不同的TTL时间,这种场景应该如何去做 ? gygz...@163.com

flink sql支持state TTL的细粒度局部配置

2021-11-30 Thread gygz...@163.com
应该如何去做 ? gygz...@163.com

flink sql建表异常问题

2021-11-16 Thread 18765295...@163.com
您好 我将flink sql建表程序提交到k8s执行时抛出如下异常,网上提示需要引入flink-table-planner-blink等依赖,但实际pom文件中已经引入,请问这个该如何解决,附部分pom文件,flink版本为1.13。谢谢。

取消订阅

2021-11-07 Thread tanggen...@163.com
取消订阅 tanggen...@163.com

回复:Flink Sql读取Hbase表

2021-11-07 Thread zst...@163.com
作为读的数据源时,使用的hbase的sdk scanner读取,不是全量读。见org.apache.flink.connector.hbase2.source.AbstractTableInputFormat#nextRecord。 作为维表时,使用Guava cache缓存每次join到的key。见org.apache.flink.connector.hbase.source.HBaseRowDataLookupFunction#eval。 Best Wishes! - Yuan 在2021年11月7日 16:26,guanyq 写道: 请大佬指导下: -- 在 Flink

公司数据密文,实现group by和join

2021-10-27 Thread lyh1067341...@163.com
您好: 目前公司数据都是密文,要进行密文数据的比较或者计算的话,只能调用公司密文计算的接口,去看了下flink的分组和join算子,都只能指定分组的key或者join的key,不知道怎么改写比较的规则,我用mapreduce实现了重写shuffle的比较规则,可以实现密文下的join和group by,对于使用spark和flink算子不知道如何实现。 问题: 请问有啥办法,实现密文下的join和group by操作吗?(在不能解密,只能调用公司密文计算的接口) 谢谢您。 发自 网易邮箱大师

退订

2021-10-20 Thread aegean0...@163.com
| | aegean0933 邮箱:aegean0...@163.com | 退订

退订

2021-10-15 Thread tanggen...@163.com
退订 tanggen...@163.com

退订

2021-10-14 Thread tanggen...@163.com
退订 tanggen...@163.com

Flink Stream + StreamTableEnvironment 结合使用时checkpoint异常问题

2021-09-10 Thread xia_...@163.com
a schema = table.getSchema(); schema.getTableColumns().forEach(column -> { System.err.println(column.asSummaryString()); }); DataStream> tuple2DataStream = tableEnv.toRetractStream(table, Row.class); tuple2DataStream.print(mainTable); dataStream.print(mainTable); } xia_...@163.com

Flink OperatorChain AsyncWaitOperator

2021-09-02 Thread lpengdr...@163.com
Hi: 请教下Flink的operator-chain的机制, 我看AsyncWaitOperator的chainingStrategy是ALWAYS,但是实际使用发现在所有算子并行度都设置为1的情况下这个operator没有办法和上游算子chain串起来只能跟下游的算子slot共享,这里边是还有什么其他规则吗?

退订

2021-08-24 Thread aegean0...@163.com
退订 | | aegean0933 邮箱:aegean0...@163.com |

Re: Re: filesystem connector不支持跨subtask合并小文件

2021-08-04 Thread lixin58...@163.com
你好, 生成的三个文件挺小的,不到2kb,1k多一点,配这个是为了合并后比2k大 lixin58...@163.com 发件人: Rui Li 发送时间: 2021-08-05 11:42 收件人: user-zh 主题: Re: filesystem connector不支持跨subtask合并小文件 你好, 看到你的compaction.file-size配置成了2kb,这个是希望合并以后的文件的target size只有2kb么 On Wed, Aug 4, 2021 at 5:39 PM lixin58...@163.com wrote: >

filesystem connector不支持跨subtask合并小文件

2021-08-04 Thread lixin58...@163.com
', 'path' = 'hdfs:///data/fs_parquet_compact', 'format' = 'parquet', 'auto-compaction' = 'true', 'compaction.file-size' = '2kb', 'sink.rolling-policy.file-size' = '500b', 'sink.rolling-policy.rollover-interval' = '800s', 'sink.rolling-policy.check-interval' = '60s' ); lixin58...@163.com

Re: Re: filesystem table parquet 滚动问题

2021-07-26 Thread lixin58...@163.com
你好, 感谢回复,看了下这个文档,提到对于parquet这种列式文件只会使用onCheckpointRollPolicy,也就是只在做检查点时会滚动。flink filesystem table这块的parquet列式文件写入是不是也这样呢? https://ci.apache.org/projects/flink/flink-docs-release-1.12/zh/dev/connectors/streamfile_sink.html lixin58...@163.com 发件人: Jingsong Li 发送时间: 2021-07-27 10:30 收件人

filesystem table parquet 滚动问题

2021-07-24 Thread lixin58...@163.com
大家好, 检查点配的是120s,滚动时长800s,滚动大小1kb,并行度配的2 不过在跑的过程中发现不管写入的多快,同时只存在一个in-progress文件,且最终生成的文件是严格按照120s生成的,这个很奇怪,似乎只有按检查点滚动生效了,与json格式的不一样。真的是这样吗?不过看官方文档没有这样说 求大佬们解惑! create table fs_parquet (userid bigint, name string, part string) PARTITIONED BY (part) with( 'connector' = 'filesystem', 'path' =

flink时态表:两个Hbase左关联有报错情况

2021-07-13 Thread xie_guo...@163.com
时缺包,目前pom文件是有hbase-client、hbase-commen、flink-sql-connector-hbase。 Sincerely, xie_guo...@163.com

????: Processing-time temporal join is not supported yet

2021-06-23 Thread jiangshan0...@163.com
??, ?? watermark jiangshan0...@163.com op ?? 2021-06-23 17:03 user-zh ?? Processing-time temporal join is not supported yet hi

Re: flink1.12.2 sql session窗口间隔时间段内没有新数据窗口不关闭

2021-06-18 Thread lpengdr...@163.com
你用EventTimeSession窗口的超时也是按照你的事件时间来判断的,要有超过超时时间边界的数据输入了才能触发 lpengdr...@163.com 发件人: raofang 发送时间: 2021-06-18 12:20 收件人: user-zh 主题: flink1.12.2 sql session窗口间隔时间段内没有新数据窗口不关闭 hi,请教大家一个问题: flink1.12.2 sql BlinkPlanner 使用基于routime的session窗口时,在设置的间隔时间10分钟内没有接收到新数据,窗口没有关闭输出计算结果;但是接收到10分钟之后的新数据时

Reasonable heap space usage of flink jobs

2021-06-16 Thread todd5...@163.com
For flink1.12.1 version, set taskmanager.memory.process.size: 1024m. When running, Heap Maximum: 146M, Non-Heap Maximum: 744 MB, Heap usage rate is about 10%-30%. What is the reasonable Heap usage rate? So as to do further resource optimization. -- Sent from:

Re: Re: Flink SQL 1.11.3问题请教

2021-06-02 Thread yinghua...@163.com
我这个情况还有点不一样的,本来单条数据是如下的:一条数据对应一个offset {"name":"test1"} 但是Nifi采集数据后,写入kafka格式是下面这样的,一个offset对应下面几条数据(每一个offset对应的真实数据条数还不是固定的) {"name":"test1"} {"name":"test2"} {"name":"test3"} ... 感谢你的回复,我借鉴下看怎么处理下,多谢了!

Flink SQL 1.11.3问题请教

2021-05-31 Thread yinghua...@163.com
我们使用Nifi将数据采集到kafka,然后使用Flink处理kafka中的数据,现在Nifi如果将多条数据当做一条记录(写入kafka中的数据格式为csv或者json)写入kafka后(就是一个offset中包含了多条数据),Flink只会处理其中的一条数据?有没有什么办法让Flink都处理一个offset中的多条数据? yinghua...@163.com

退订

2021-05-19 Thread zander0...@163.com
退订 周德虎 电话:15021351770 邮箱:zander0...@163.com

回复: Re: 扩展SqlServerDialect 运行在flink on k8s报错

2021-05-07 Thread 18756225...@163.com
非常感谢! 发件人: Leonard Xu 发送时间: 2021-05-07 14:26 收件人: user-zh 主题: Re: 扩展SqlServerDialect 运行在flink on k8s报错 Hi 看日志是加载不到对应的class文件,(1)可以对比下你jar包里的路径是不是不正确,(2) 检查下集群上是不是还有之前的jar包,没替换干净 祝好 Leonard > 在 2021年5月7日,13:58,18756225...@163.com 写道: > > 大家好,遇到一个问题: > 坏境:flink 版本1.1

扩展SqlServerDialect 运行在flink on k8s报错

2021-05-07 Thread 18756225...@163.com
大家好,遇到一个问题: 坏境:flink 版本1.12.1, k8s集群为session模式, 该集群之前可以将数据正常写入到mysql 参考mysqlDialect 扩展了一个 SqlServerDialect,替换了flink的lib包下的flink-connector-jdbc_2.11-1.12.1.jar,在on yarn时 任务正常运行,flink-sql也可以将数据写入到sqlserver 在同一台机器坏境 提交到k8s搭建的flink session模式集群, 就报如下错误 , JdbcBatchingOutputFormat

Flink SQL问题请教:Flink SQL中支持在一个TableEnvionment中多个DML语句提交时共用一个Yarn任务来运行吗?

2021-04-30 Thread yinghua...@163.com
yinghua...@163.com

flink Kafka producer执行出错

2021-04-30 Thread tanggen...@163.com
) Caused by: org.apache.kafka.common.errors.ProducerFencedException: Producer attempted an operation with an old epoch. Either there is a newer producer with the same transactionalId, or the producer's transaction has been expired by the broker. tanggen...@163.com

Re: 解析kafka 非标准JSON问题

2021-04-27 Thread 19971028...@163.com
可以尝试在kafka 写个拦截器处理json 19971028...@163.com 发件人: guoyb 发送时间: 2021-04-27 17:55 收件人: user-zh 主题: 解析kafka 非标准JSON问题 您好!请问遇到如下格式的该如何用SQL解析。 string {name=string} {id : 1, name : abram} eg: 2021-04-03x{name=aa} {id : 1, name : abram} 最重要为第三个字段 JSON,里面包含了data 第一和第二个字段可要可不要 请问,有思路可以参考吗?或者

flink在yarn集群上启动的问题

2021-04-21 Thread tanggen...@163.com
to EXITED_WITH_FAILURE 2021-04-20 23:34:16,069 INFO org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch: Cleaning up container container_1618931441017_0004_03_01 tanggen...@163.com

Application application_1618931441017_0004

2021-04-20 Thread tanggen...@163.com
to EXITED_WITH_FAILURE 2021-04-20 23:34:16,069 INFO org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch: Cleaning up container container_1618931441017_0004_03_01 tanggen...@163.com

flink在k8s上部署,如何修改默认的lib目录

2021-04-18 Thread cxydeve...@163.com
默认的lib路径是/opt/flink/lib 现在我无法操作/opt/flink/lib, 但是又想往里面放东西,所以想请教是否可以修改在flink-conf.yaml指定lib路径? -- Sent from: http://apache-flink.147419.n8.nabble.com/

退订

2021-04-07 Thread huangqibing...@163.com
退订 huangqibing...@163.com 发件人: Chen Virtual 发送时间: 2021-04-08 12:19 收件人: user-zh@flink.apache.org 主题: 退订 退订

退订

2021-03-31 Thread zhaorui_9...@163.com
退订 zhaorui_9...@163.com

退订

2021-03-25 Thread aegean0...@163.com
退订 | | aegean0933 邮箱:aegean0...@163.com |

退订

2021-03-25 Thread aegean0...@163.com
退订

回复: flink 1.12.0 k8s session部署异常

2021-03-24 Thread 18756225...@163.com
我也遇到这个问题,集群可以提交正常提交任务,但是jobmanager的日志一直有这个, 请问可有办法解决? 发件人: casel.chen 发送时间: 2021-02-07 16:33 收件人: user-zh@flink.apache.org 主题: flink 1.12.0 k8s session部署异常 在k8s上部署sesson模式的flink集群遇到jobmanager报如下错误,请问这是什么原因造成的?要如何fix? 2021-02-07 08:21:41,873 INFO

回复: flink 1.11.2 使用rocksdb时出现org.apache.flink.util.SerializedThrowable错误

2021-03-20 Thread hdxg1101300...@163.com
知道原因了 hdxg1101300...@163.com 发件人: hdxg1101300...@163.com 发送时间: 2021-03-20 22:07 收件人: user-zh 主题: flink 1.11.2 使用rocksdb时出现org.apache.flink.util.SerializedThrowable错误 你好: 最近升级flink版本从flink 1.10.2 升级到flink.1.11.2;主要是考虑日志太大查看不方便的原因; 代码没有变动只是从1.10.2.编译为1.11.2 ,集群客户端版本升级到1.11.2;任务提交到yarn 使

flink 1.11.2 使用rocksdb时出现org.apache.flink.util.SerializedThrowable错误

2021-03-20 Thread hdxg1101300...@163.com
:1.11.2] at org.apache.flink.streaming.api.operators.StreamOperatorStateHandler.snapshotState(StreamOperatorStateHandler.java:186) ~[flink-dist_2.11-1.11.2.jar:1.11.2] hdxg1101300...@163.com

使用codehaus.janino动态生成类,在map函数中自动映射json对象,找不到我自动生成的类

2021-03-16 Thread hdxg1101300...@163.com
l.java:511) at org.apache.flink.streaming.api.graph.StreamConfig.getStreamOperatorFactory(StreamConfig.java:260) hdxg1101300...@163.com

Re: flink 1.12 使用流式写入hive报错,Failed to create Hive RecordWriter

2021-03-15 Thread yinghua...@163.com
Caused by: java.lang.OutOfMemoryError: Java heap space yinghua...@163.com 发件人: william 发送时间: 2021-03-15 16:32 收件人: user-zh 主题: flink 1.12 使用流式写入hive报错,Failed to create Hive RecordWriter flink 1.12 hadoop 2.7.5 hive 2.3.6 报错内容: 2021-03-15 16:29:43

flink参数问题

2021-03-15 Thread lxk7...@163.com
大佬们,我现在flink的版本是flink 1.10,但是我通过-ynm 指定yarn上的任务名称不起作用,一直显示的是Flink per-job cluster lxk7...@163.com

退订

2021-03-04 Thread tiantingting5...@163.com
退订 tiantingting5...@163.com

flink-savepoint问题

2021-03-03 Thread guaishushu1...@163.com
:266) at org.apache.flink.runtime.concurrent.FutureUtils.runIfNotDoneAndGet(FutureUtils.java:447) ... 5 more guaishushu1...@163.com

Flink-SQL-Connector扩展问题

2021-02-28 Thread guaishushu1...@163.com
? guaishushu1...@163.com

  1   2   3   4   >