Re: flink 1.9 消费kafka报错

2019-08-26 文章 ddwcg
谢谢您的耐心解答,是本地cache的问题,已经解决 > 在 2019年8月26日,17:56,ddwcg <3149768...@qq.com> 写道: > > 都加了,还是不行,下面是我的pom文件和 libraires的截图 > > > > apache.snapshots > Apache Development Snapshot Repository > https://repository.apache.org/content/repositories/snapshots/ >

Re: flink 1.9 消费kafka报错

2019-08-26 文章 Jark Wu
看起来是你依赖了一个老版本的 EnvironmentSettings,可能是本地 mvn cache 导致的。 可以尝试清空下 “~/.m2/repository/org/apache/flink/flink-table-api-java” 目录。 Best, Jark > 在 2019年8月26日,17:56,ddwcg <3149768...@qq.com> 写道: > > 都加了,还是不行,下面是我的pom文件和 libraires的截图 > > > > apache.snapshots > Apache Development

Re: flink 1.9 消费kafka报错

2019-08-26 文章 ddwcg
hi,我指定了使用blinkplanner,还是报一样的错 object StreamingJob { def main(args: Array[String]) { val bsEnv = StreamExecutionEnvironment.getExecutionEnvironment val bsSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build() val bsTableEnv =