> 我原以为 Table API 会比  SQL API 自由度大一些,毕竟可以代码层面定制


Table API 确实是要灵活些,只是最近两个版本中,SQL模块社区的主要精力在搞DDL,DDL可以降低用户门槛,提升易用性,Table 
API的迭代稍微慢了些,
我理解1.12中应该会完善Descriptor API,这也是比较重要的用户入口,目前建议优先使用DDL。

Best,
Leonard Xu

> 在 2020年5月28日,10:23,macia kk <[email protected]> 写道:
> 
> 好的,谢谢,
> 
> 放弃治疗,我先尝试DDL,先把 job 跑通,我原以为 Table API 会比  SQL API 自由度大一些,毕竟可以代码层面定制
> 
> Leonard Xu <[email protected]> 于2020年5月28日周四 上午10:17写道:
> 
>> Hi,
>> 我看了下Descriptor的代码,如果数据源是Kafka应该有地方绕,很绕, 你可以试下,建议使用DDL。
>> 
>> Best
>> Leonard Xu
>> 
>> [1]
>> https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-kafka-base/src/main/java/org/apache/flink/table/descriptors/Kafka.java#L111
>> <
>> https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-kafka-base/src/main/java/org/apache/flink/table/descriptors/Kafka.java#L111
>>> 
>> [2]
>> https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-kafka-base/src/test/java/org/apache/flink/streaming/connectors/kafka/KafkaTableSourceSinkFactoryTestBase.java#L156
>> <
>> https://github.com/apache/flink/blob/master/flink-connectors/flink-connector-kafka-base/src/test/java/org/apache/flink/streaming/connectors/kafka/KafkaTableSourceSinkFactoryTestBase.java#L156
>>> 
>> 
>> 
>> 
>>> 在 2020年5月28日,00:45,macia kk <[email protected]> 写道:
>>> 
>>> Hi 各位大佬
>>> 
>>>      .field("event_time", TIMESTAMP()).rowtime(
>>>         new Rowtime()
>>>         .timestampsFromField("maxwell_ts")
>>>         .watermarksPeriodicBounded(60000)
>>>       )
>>> 
>>> 
>>> 我这个 maxwell_ts 是 milliseconds ,直接这么用会报错:
>>> 
>>> Type TIMESTAMP(6) of table field ‘event_time’ does not match with the
>>> physical type
>>> 
>>> 
>>> 有类似
>>> 
>>> event_time as to_timestamp(maxwell_ts)
>>> 
>>> 
>>> 这么的操作码?
>> 
>> 

回复