回复:Kerberos加密Yarn集群上的Flink任务写入其他未互信的加密HDFS是否可能

2023-04-08 文章 yihan
| 发件人 | Geng Biao | | 发送日期 | 2023年04月08日 23:20 | | 收件人 | user-zh@flink.apache.org | | 主题 | Re: Kerberos加密Yarn集群上的Flink任务写入其他未互信的加密HDFS是否可能 | Hi yihan, 这个本质上可以理解成在Flink的taskmanager运行一个UDF(UDF做的事情是写另一个Kerberos HDFS集群),所以技术上是可能的。 我之前走通过普通Yarn集群的Flink任务写入另一个Kerberos HDFS集群的流程,整体操作感觉比较复杂,通常而言,你需要如下步

Kerberos加密Yarn集群上的Flink任务写入其他未互信的加密HDFS是否可能

2023-04-08 文章 yihan
请教如标题问题,谢谢。

请教on yarn per job 作业采集日志进行监控方案

2021-07-20 文章 yihan xu
原本作业基本处于半裸奔的状态,最近线上出了一次小事故后,在考虑如何实时采集作业日志或者metric再配置告警。 网上初步搜了一下,好像就是prometheus+grafana或者elk。 请教各位大佬的项目目前都是用什么方式,我们小公司就我一个人搞flink,半路出家水平也有限,请大佬们推荐个易维护坑少点的方式?谢谢。 发自我的iPhone 发自我的iPhone

flink sql 通过计算列提取字段定义watermark后窗口计算没有结果输出

2020-06-08 文章 xu yihan
大家好, 我遇到一个奇怪的问题,通过计算列提取出某一字段。定义为row_time的watermark, 如下面原始字段为message,从中提取13位unix-timestamp,转成timestamp(3)再定义为watermark。 执行窗口计算不报错,但是无输出结果。 数据源是kafka,各partition内数据均匀。 建表语句类似下面(单位机器不能联外网,下面的语句是我手打的,可能有typo请见谅) create table kafka_source( message Varchar, ts as

flink sql upsert模式写入mysql,es等key一定是groupby之后所有字段吗

2020-06-04 文章 xu yihan
举个例子比如我想要 insert into mysql_sink select ID, amount, ……… from source groupby ID; 这里就是想按照id为key,在数据库里更新这个id对应的amount等其他值。 但这样子不能通过calcite的sqlvalidation,select后面不能有非聚合项,必须在groupby后面加上所有select后面的项。 但这样带来一个问题,这样子key的state无限增长(比如说amount是一个随机的double数),job跑不久就会fail掉。

flink sql ddl能设置ttl吗?

2020-06-04 文章 xu yihan
各位好, 我有一个需求是要维表关联mysql数据,再upsert写入mysql,就是个丰富字段的简单需求。 现在有两个问题: 1.为了实现upsert插入,我试下来必须使用groupby指定key,但是select内又有很多非聚合项,所以没办法在groupby后面加上所有那些非聚合项,否则通不过calcite validation。 2.现在遇到了一个问题,跑一段时间会抱full GC,我估计是因为groupby导致的状态不清理。 请问flink sql ddl能通过类似SET 语句来设定ttl吗,搜了官方文档只有提到table