> 我原以为 Table API 会比 SQL API 自由度大一些,毕竟可以代码层面定制
Table API 确实是要灵活些,只是最近两个版本中,SQL模块社区的主要精力在搞DDL,DDL可以降低用户门槛,提升易用性,Table API的迭代稍微慢了些, 我理解1.12中应该会完善Descriptor API,这也是比较重要的用户入口,目前建议优先使用DDL。 Best, Leonard Xu > 在 2020年5月28日,10:23,macia kk <[email protected]> 写道: > > 好的,谢谢, > > 放弃治疗,我先尝试DDL,先把 job 跑通,我原以为 Table API 会比 SQL API 自由度大一些,毕竟可以代码层面定制 > > Leonard Xu <[email protected]> 于2020年5月28日周四 上午10:17写道: > >> Hi, >> 我看了下Descriptor的代码,如果数据源是Kafka应该有地方绕,很绕, 你可以试下,建议使用DDL。 >> >> Best >> Leonard Xu >> >> [1] >> https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-kafka-base/src/main/java/org/apache/flink/table/descriptors/Kafka.java#L111 >> < >> https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-kafka-base/src/main/java/org/apache/flink/table/descriptors/Kafka.java#L111 >>> >> [2] >> https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-kafka-base/src/test/java/org/apache/flink/streaming/connectors/kafka/KafkaTableSourceSinkFactoryTestBase.java#L156 >> < >> https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-kafka-base/src/test/java/org/apache/flink/streaming/connectors/kafka/KafkaTableSourceSinkFactoryTestBase.java#L156 >>> >> >> >> >>> 在 2020年5月28日,00:45,macia kk <[email protected]> 写道: >>> >>> Hi 各位大佬 >>> >>> .field("event_time", TIMESTAMP()).rowtime( >>> new Rowtime() >>> .timestampsFromField("maxwell_ts") >>> .watermarksPeriodicBounded(60000) >>> ) >>> >>> >>> 我这个 maxwell_ts 是 milliseconds ,直接这么用会报错: >>> >>> Type TIMESTAMP(6) of table field ‘event_time’ does not match with the >>> physical type >>> >>> >>> 有类似 >>> >>> event_time as to_timestamp(maxwell_ts) >>> >>> >>> 这么的操作码? >> >>
