目前还不支持 set HiveConf 里面的参数。 只能在创建 HiveCatalog 用的那个 hive-site.xml 里面改。
快发布的 Flink 1.16 就可以支持 set HiveConf 里面的参数。 Best regards, Yuxia ----- 原始邮件 ----- 发件人: "junjie miao" <junjie.m...@goupwith.com> 收件人: "user-zh" <user-zh@flink.apache.org> 发送时间: 星期四, 2022年 9 月 22日 上午 10:19:06 主题: flink sql中如何对于hive进行hive的参数set 当使用flink sql insert hive parquet表时,运行报如下错误: Caused by: org.apache.flink.util.SerializedThrowable: New Memory allocation 1033596 bytes is smaller than the minimum allocation size of 1048576 bytes. at org.apache.hive.shaded.parquet.hadoop.MemoryManager.updateAllocation(MemoryManager.java:133) at org.apache.hive.shaded.parquet.hadoop.MemoryManager.addWriter(MemoryManager.java:87) at org.apache.hive.shaded.parquet.hadoop.ParquetRecordWriter.<init>(ParquetRecordWriter.java:153) at org.apache.hive.shaded.parquet.hadoop.ParquetOutputFormat.getRecordWriter(ParquetOutputFormat.java:408) at org.apache.hive.shaded.parquet.hadoop.ParquetOutputFormat.getRecordWriter(ParquetOutputFormat.java:351) at org.apache.hadoop.hive.ql.io.parquet.write.ParquetRecordWriterWrapper.<init>(ParquetRecordWriterWrapper.java:70) at org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat.getParquerRecordWriterWrapper(MapredParquetOutputFormat.java:135) at org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat.getHiveRecordWriter(MapredParquetOutputFormat.java:124) at org.apache.hadoop.hive.ql.io.HiveFileFormatUtils.getRecordWriter(HiveFileFormatUtils.java:286) ... 44 common frames omitted不知道flink sql中如何对于hive进行hive的参数set