Hi,

志华,
如果在Datastream层,你可以使用FiIenputFormat.setFilesFilter来设置文件的过滤器。
目前Table层并不原生支持filter,你可以考虑自己写一个table connector。
但是更推荐的是你能把这个事情换成partition来处理,这个支持的会更自然些。

jimandlice,
-
如果是1.10或以前,你需要写一个Datastream作业加上StreamingFileSink来写入Hive,并且列存格式只有parquet的支持。[1]
- 如果是1.11(正在测试发布中),Table/SQL层原生支持streaming file sink,相关文档正在编写中。

[1]
https://ci.apache.org/projects/flink/flink-docs-master/dev/connectors/streamfile_sink.html

Best,
Jingsong Lee

On Thu, May 21, 2020 at 10:59 AM jimandlice <[email protected]> wrote:

> flink 写入hive 使用api 思路是怎么的呢
>
>
> | |
> jimandlice
> |
> |
> 邮箱:[email protected]
> |
>
> Signature is customized by Netease Mail Master
>
> 在2020年05月21日 10:57,阿华田 写道:
> flink如何支持正则读取一个目录下的文件,比如读取文件名(时间格式命名)满足一定时间范围的文件
>
>
> | |
> 王志华
> |
> |
> [email protected]
> |
> 签名由网易邮箱大师定制
>
>

-- 
Best, Jingsong Lee

回复