Hi, 志华, 如果在Datastream层,你可以使用FiIenputFormat.setFilesFilter来设置文件的过滤器。 目前Table层并不原生支持filter,你可以考虑自己写一个table connector。 但是更推荐的是你能把这个事情换成partition来处理,这个支持的会更自然些。
jimandlice, - 如果是1.10或以前,你需要写一个Datastream作业加上StreamingFileSink来写入Hive,并且列存格式只有parquet的支持。[1] - 如果是1.11(正在测试发布中),Table/SQL层原生支持streaming file sink,相关文档正在编写中。 [1] https://ci.apache.org/projects/flink/flink-docs-master/dev/connectors/streamfile_sink.html Best, Jingsong Lee On Thu, May 21, 2020 at 10:59 AM jimandlice <[email protected]> wrote: > flink 写入hive 使用api 思路是怎么的呢 > > > | | > jimandlice > | > | > 邮箱:[email protected] > | > > Signature is customized by Netease Mail Master > > 在2020年05月21日 10:57,阿华田 写道: > flink如何支持正则读取一个目录下的文件,比如读取文件名(时间格式命名)满足一定时间范围的文件 > > > | | > 王志华 > | > | > [email protected] > | > 签名由网易邮箱大师定制 > > -- Best, Jingsong Lee
