Flink ddl sql 在 Test和在Main里面执行结果不同

2021-01-20 文章 HunterXHunter
同一段代码,在main里面可以正常正常,在Test里面却直接结束

StreamExecutionEnvironment bsEnv =
StreamExecutionEnvironment.getExecutionEnvironment();
EnvironmentSettings bsSettings =
EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build();
StreamTableEnvironment bsTableEnv =
StreamTableEnvironment.create(bsEnv, bsSettings);

bsTableEnv.executeSql(
DDLSourceSQLManager.createStreamFromKafka("localhost:9092",
"test",
"test",
"test",
"json"));
   
bsTableEnv.executeSql(com.ddlsql.DDLSourceSQLManager.createDynamicPrintlnRetractSinkTbl("printlnRetractSink"));
bsTableEnv.executeSql("insert into printlnRetractSink select
msg,count(*) as cnt from test group by msg");



--
Sent from: http://apache-flink.147419.n8.nabble.com/


flink??????DDL????????????????????????????

2020-09-25 文章 kcz
??if ??

Re: Flink DDL 写 Hive parquet 是否支持 snappy压缩

2020-08-03 文章 godfrey he
parquet.compression=SNAPPY,更多信息可参考[1]

[1] 
https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/connectors/formats/parquet.html#format-options





lydata  于2020年8月4日周二 上午11:39写道:

>  Flink DDL的方式 写 Hive parquet  格式 ,是否支持 snappy压缩,如果支持 请问下参数是什么?


Flink DDL 写 Hive parquet 是否支持 snappy压缩

2020-08-03 文章 lydata
 Flink DDL的方式 写 Hive parquet  格式 ,是否支持 snappy压缩,如果支持 请问下参数是什么?