hi, everyone


    环境信息:flink-1.10.0、hadoop 2.6.0

    我从kafka 
topic消费数据,通过BucketSink写到hdfs,在0点的时候会遇到这样的问题,要同时消费当天和昨天的数据,这样在写hdfs时会产生两倍的文件描述符,对hdfs造成很大的压力,请问在不增加文件描述符上限的情况下,如何解决?

回复