Flink SQL比较适合处理结构化的数据,不知道你的body_data中的filed数量是否是固定的。如果是固定的,那可以将源和目标的格式写成Table形式。
比如:
SourceT: (
uuid String,
body_data ARRAY>
)
SinkT (
result ARRAY>
)
Insert into SinkT (result) select Array[ROW(uuid, null,body_data[1]. field1 as
body_data.fild1, body_data[1]. Field2
退订
--
发自我的网易邮箱手机智能版
- Original Message -
From: "Junrui Lee"
To: user-zh@flink.apache.org
Sent: Wed, 22 Nov 2023 10:19:32 +0800
Subject: Re: 退订
Hi,
请发送任意内容的邮件到 user-zh-unsubscr...@flink.apache.org 来取消订阅邮件。
Best,
Junrui
万建国 <1097498...@qq.com.invalid> 于2023年11月22日周三 10:10写道:
>
The Apache Flink community is very happy to announce the release of Apache
Flink Kubernetes Operator 1.7.0.
The Flink Kubernetes Operator allows users to manage their Apache Flink
applications and their lifecycle through native k8s tooling like kubectl.
Release highlights:
- Standalone
Hi, casel.
这种现在应该是没支持,好像也没有issue说要支持,可以去jira里建一个feature看看大家的反响。
目前同样可以实现的方式:
1. 三次look up join + union + udaf。
2. udf,row by row自己查,搞一个缓存提高性能。
3. 将社区的connector魔改一下,重新打包使用。
4. ..
--
Best!
Xuyang
在 2023-11-22 20:44:47,"casel.chen" 写道:
>有一张维表 user,包含id和name字段
>id | name
输入:
{
"uuid":"",
"body_data":
"[{\"fild1\":1"1231","fild2\":1"2341"},{"fild1\":"abc\","fild2\":"cdf\"}]"
}
输出:
[
{
"uuid": "",
"body_data: null,
"body_data.fild1": "123”,
"body_data.fild2": "234"
},
{
"uuid": "",
"body_data": null,
"body_data.fild1":
有一张维表 user,包含id和name字段
id | name
-
1 | zhangsan
2 | lisi
3 | wangwu
现在实时来了一条交易数据
id | creator_id | approver_id | deployer_id
-
1 | 1| 2 | 3
希望lookup维表user返回各用户名称
id |
退订
退订
At 2023-10-04 10:06:45, "1" wrote:
>