按我的理解,你描述错了吧,是kafka_ods_table里面的数据,是按照客户端自定义分区发送 过来的,接下来你希望处理完以后,还要保证kafka_dwd_table里面的数据,也需要保证数据按partition有序吧。因为你是把数据insert到kafka_dwd_table吧,你的描述有问题。
如果我理解的没有问题,那你看一下https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/connectors/kafka.html#sink-partitioner <https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/connectors/kafka.html#sink-partitioner> ,最关键的就是sink.partitioner这个参数的设置。 > 在 2020年8月18日,下午5:17,[email protected] 写道: > > > 直接用 FlinkSQL 实现抽取字段、字段转换的功能。 > > INSERT INTO kafka_dwd_table SELECT a, b, fun(c) FROM kafka_ods_table > > kafka_dwd_table topic 里面的 record 是客户端依照特定的 partition 规则发送过去的 > 经过 上面的 FlinkSQL 操作会怎样做 partition 呢? > > 谢谢, > 王磊 > > > > [email protected] >
