Hi, 现在好像没有count相关的下沉逻辑,目前应该只实现了关于filter、limit、partition、projection等的source下沉。具体可以参考下[1]等等
[1] https://github.com/apache/flink/blob/master/flink-table/flink-table-planner/src/main/java/org/apache/flink/table/planner/plan/abilities/source/FilterPushDownSpec.java -- Best! Xuyang 在 2022-08-09 16:55:47,"悟空" <wukon...@foxmail.com> 写道: >大家好, 我目前在使用的flink 是1.12.3版本, >目前场景是这样的, source table 一共两张, 一张kafka 表 source_table_kafka 一张 phoenix表 >source_table_phoenix ,我想通过kafka流表 join phoenix 然后count 之后的结果 sink >到kafka表中,其中count 查询 想下探到phoenix 完成 。请问这种可以实现吗? > > >select stp.number_no, count(*) as stat_number from source_table_kafka >stk join source_table_phoenix FOR SYSTEM_TIME AS OF stk.`PROCTIME` >as stp on stk.id = stp.id group by stp.number_no > > > > >请问 如何实现这种逻辑,想kafka里的消息每来一条 都下沉到phoenix中查询 去做count, 目前我已经实现了 phoenix >相关的connector 支持 SQL 语法