李宇彬 Mon, 13 Jul 2020 23:53:10 -0700
hi, everyone
环境信息:flink-1.10.0、hadoop 2.6.0 我从kafka topic消费数据,通过BucketSink写到hdfs,在0点的时候会遇到这样的问题,要同时消费当天和昨天的数据,这样在写hdfs时会产生两倍的文件描述符,对hdfs造成很大的压力,请问在不增加文件描述符上限的情况下,如何解决?