感谢你的回复
我看了打的JAR包中是存在org.apache.kafka.common.serialization.Serializer和ByteArraySerializer
在Flink run-application过程中也并没有将集群中Kafka
1.1.1版本的依赖加载到类路径中,并且在HDFS的application_1619417125027_0011/lib下也没有发现Kafka相关的jar包
不太明白为什么会出现问题
这是我的打包配置:
org.apache.maven.plugins
maven-s
hi, Colar.
Flink 使用的 Kafka 的版本是2.4.1,但是你的集群版本是1.1.1。看样子 作业运行时加载的是 集群上的
ByteArraySerializer,而不是 Flink 的
`flink-connector-kafka`中的。不太确定打成一个shade包能不能行。
Best,
Shengkai
Colar <523774...@qq.com> 于2021年4月26日周一 下午6:05写道:
> 使用Flink 1.12.2 消费Kafka报错:
>
> 2021-04-26 17:39:39,802 WARN org.apache.flink.run
使用Flink 1.12.2 消费Kafka报错:
2021-04-26 17:39:39,802 WARN org.apache.flink.runtime.taskmanager.Task
[] - TriggerWindow(SlidingEventTimeWindows(3, 5000),
ReducingStateDescriptor{name=window-contents, defaultValue=null,
serializer=org.apache.flink.api.java.typeutils.runtime.Tup