Hi, 目前还不支持的,社区有一个 FLIP-107[1] 在计划做这个事情。
祝好, Leonard Xu [1] https://cwiki.apache.org/confluence/display/FLINK/FLIP-107%3A+Reading+table+columns+from+different+parts+of+source+records#FLIP107:Readingtablecolumnsfromdifferentpartsofsourcerecords-Kafka:ETL:read,transformandwritebackwithkey,value.Allfieldsofthekeyarepresentinthevalueaswell. <https://cwiki.apache.org/confluence/display/FLINK/FLIP-107%3A+Reading+table+columns+from+different+parts+of+source+records#FLIP107:Readingtablecolumnsfromdifferentpartsofsourcerecords-Kafka:ETL:read,transformandwritebackwithkey,value.Allfieldsofthekeyarepresentinthevalueaswell.> > 在 2020年7月7日,17:01,op <[email protected]> 写道: > > hi: > flink sql 写kafka表的时候可以指定消息的key吗? > 看官网的kafka connector没有找到消息key相关的说明 > 如果可以的话,如何指定? > 谢谢
