Hi, 
现在好像没有count相关的下沉逻辑,目前应该只实现了关于filter、limit、partition、projection等的source下沉。具体可以参考下[1]等等




[1] 
https://github.com/apache/flink/blob/master/flink-table/flink-table-planner/src/main/java/org/apache/flink/table/planner/plan/abilities/source/FilterPushDownSpec.java













--

    Best!
    Xuyang





在 2022-08-09 16:55:47,"悟空" <wukon...@foxmail.com> 写道:
>大家好, 我目前在使用的flink 是1.12.3版本,
>目前场景是这样的, source table 一共两张, 一张kafka 表&nbsp; source_table_kafka 一张 phoenix表 
>source_table_phoenix ,我想通过kafka流表 join phoenix 然后count 之后的结果 sink 
>到kafka表中,其中count 查询 想下探到phoenix 完成 。请问这种可以实现吗?
>
>
>select stp.number_no, count(*) as stat_number from source_table_kafka 
>stk&nbsp; join source_table_phoenix&nbsp;FOR SYSTEM_TIME AS OF stk.`PROCTIME` 
>as stp on stk.id = stp.id group by stp.number_no
>
>
>
>
>请问 如何实现这种逻辑,想kafka里的消息每来一条 都下沉到phoenix中查询 去做count, 目前我已经实现了 phoenix 
>相关的connector 支持 SQL 语法

回复