Re: flink checkpoint导致反压严重

2020-08-25 文章
input .keyBy() .timeWindow() .reduce(new MyReduceFunction(), new MyProcessWindowFunction()); 可以看一下官网的 reduce 用法, 可以在数据进入窗口的时候进行处理(排序), 而没必要等到 window 结束后再进行 这样可以把时间分散到 window 里面

Re: 有什么方式基于yarn集群直接运行flink任务(仅部署yarn集群,不部署flink)

2020-08-20 文章
这个命令会把 flink-dist 提交到 hdfs 上的 赵一旦 于2020年8月19日周三 下午10:10写道: > 没太懂,yarn部分没自己部署过,yarn集群部署好(假设5台机器),那么这5台机器上不部署任何flink相关dist包就可以嘛。 > > 比如我从额外一台机器6作为提交任务的机器,向yarn集群提交flink任务。但是我的jar也只包含用户jar呀,yarn容器中运行的jobmanager/taskmanager等进程使用的flink的dist包从哪来呢? > > > 徐骁 于2020年8月19日周三 下午7:58写道: &

Re: 有什么方式基于yarn集群直接运行flink任务(仅部署yarn集群,不部署flink)

2020-08-19 文章
flink yarn 有个 job 发布方式, https://ci.apache.org/projects/flink/flink-docs-release-1.11/ops/deployment/yarn_setup.html#run-a-single-flink-job-on-yarn 提交包就行了, 会自动拉起 Flink 集群运行任务, 任务结束集群自动销毁 赵一旦 于2020年8月19日周三 下午5:54写道: > 如题,我直接5机器部署yarn集群,上边未部署flink。 > 能否直接提交flink任务到该集群呢? >

Re: flink生产环境使用

2020-08-19 文章
无脑上 Yarn 啊 引领 于2020年8月19日周三 上午10:57写道: > > > > 这段时间开始引入flink在生产环境,主要想将sql用起来,有木有大佬推荐一下,在生产环境下,用yarn模式好还是standalone模式,我们spark等大数据都是yarn来管理 > | | > 引领 > | > | > yrx73...@163.com > | > 签名由网易邮箱大师定制 > >

Re: 作业因为异常restart后,频繁OOM

2020-06-30 文章
很早以前遇到这个问题, standalone 模式下 metaspace 释放不掉, 感觉是一个比较严重的 bug https://issues.apache.org/jira/browse/FLINK-11205 这边有过讨论 SmileSmile 于2020年6月30日周二 下午11:45写道: > 作业如果正常运行,堆外内存是足够的。在restart后才会出现频繁重启的情况,重构集群才能恢复正常 > > > | | > a511955993 > | > | > 邮箱:a511955...@163.com > | > > 签名由 网易邮箱大师 定制 > >

Re: 如何快速定位拖慢速度的 operator

2020-06-27 文章
好的 感谢两位我试试 Sun.Zhu <17626017...@163.com> 于2020年6月25日周四 下午11:19写道: > 虽然chain在一起,但是可以通过metrics中看出来各个算子的各项指标的 > | | > Sun.Zhu > | > | > 17626017...@163.com > | > 签名由网易邮箱大师定制 > > > 在2020年06月25日 00:51,徐骁 写道: > 两个方法确实可以, 但是要追踪起来很废时间, 对小白太不友好啊 >

Re: 如何快速定位拖慢速度的 operator

2020-06-24 文章
两个方法确实可以, 但是要追踪起来很废时间, 对小白太不友好啊

如何快速定位拖慢速度的 operator

2020-06-24 文章
平常经常遇到这个问题, 特来求助下, 平常任务基本都是共享 default slot 的, 所以在 web 上显示的是一整块, 当任务出现问题可以看到被压, 但是很难定位是里面的哪个 operator 出问题了 有没有什么方法能快速的定位出问题的 operator, 想问问大家平时怎么做的

Re: flink1.9 blink planner table ddl 使用问题

2019-08-27 文章
珞感谢 Jark Wu 于2019年8月27日周二 下午6:49写道: > > https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/connect.html#kafka-connector > < > https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/connect.html#kafka-connector > > > > > 在 2019年8月27

Re: Re:回复: Re: flink1.9 blink planner table ddl 使用问题

2019-08-27 文章
这部分有文档吗,看了好几圈没看到 hb <343122...@163.com> 于2019年8月26日周一 下午3:34写道: > 感谢,解决了, 指定 'connector.version' = '0.11' 就可以了. > Blink SQL这方面的官方资料和文档好少啊,开发容易遇到问题. > > 在 2019-08-26 14:26:15,"hb" <343122...@163.com> 写道: > >kafka版本是 kafka_2.11-1.1.0, > >支持的kafka版本有哪些 > >在 2019-08-26