目前还不支持 set HiveConf 里面的参数。
只能在创建 HiveCatalog 用的那个 hive-site.xml 里面改。

快发布的 Flink 1.16 就可以支持  set HiveConf 里面的参数。

Best regards,
Yuxia

----- 原始邮件 -----
发件人: "junjie miao" <junjie.m...@goupwith.com>
收件人: "user-zh" <user-zh@flink.apache.org>
发送时间: 星期四, 2022年 9 月 22日 上午 10:19:06
主题: flink sql中如何对于hive进行hive的参数set

当使用flink sql insert hive parquet表时,运行报如下错误:
Caused by: org.apache.flink.util.SerializedThrowable: New Memory allocation 
1033596 bytes is smaller than the minimum allocation size of 1048576 bytes.
        at 
org.apache.hive.shaded.parquet.hadoop.MemoryManager.updateAllocation(MemoryManager.java:133)
        at 
org.apache.hive.shaded.parquet.hadoop.MemoryManager.addWriter(MemoryManager.java:87)
        at 
org.apache.hive.shaded.parquet.hadoop.ParquetRecordWriter.<init>(ParquetRecordWriter.java:153)
        at 
org.apache.hive.shaded.parquet.hadoop.ParquetOutputFormat.getRecordWriter(ParquetOutputFormat.java:408)
        at 
org.apache.hive.shaded.parquet.hadoop.ParquetOutputFormat.getRecordWriter(ParquetOutputFormat.java:351)
        at 
org.apache.hadoop.hive.ql.io.parquet.write.ParquetRecordWriterWrapper.<init>(ParquetRecordWriterWrapper.java:70)
        at 
org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat.getParquerRecordWriterWrapper(MapredParquetOutputFormat.java:135)
        at 
org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat.getHiveRecordWriter(MapredParquetOutputFormat.java:124)
        at 
org.apache.hadoop.hive.ql.io.HiveFileFormatUtils.getRecordWriter(HiveFileFormatUtils.java:286)
        ... 44 common frames omitted不知道flink sql中如何对于hive进行hive的参数set

回复