您是说将那几个jar都放到flink/lib下吗?
在2020年06月11日 14:39,Leonard Xu<[email protected]> 写道:
Hi
你服务器上是否配置了hadoop_classpath? 建议hbase在试用时 用 hadoop_classpath + flink-hbase
jar,不然依赖问题会比较麻烦。
祝好
Leonard Xu
在 2020年6月11日,14:24,酷酷的浑蛋 <[email protected]> 写道:
在使用flink sql ddl语句向hbase中写的时候报如下错误:
java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration
at
org.apache.flink.addons.hbase.HBaseUpsertTableSink.consumeDataStream(HBaseUpsertTableSink.java:87)
at
org.apache.flink.table.planner.plan.nodes.physical.stream.StreamExecSink.translateToPlanInternal(StreamExecSink.scala:141)
at
org.apache.flink.table.planner.plan.nodes.physical.stream.StreamExecSink.translateToPlanInternal(StreamExecSink.scala:50)
项目maven中已经引入过下面依赖
<artifactId>hbase-server</artifactId>
<artifactId>hbase-common</artifactId>
<artifactId>hadoop-common</artifactId>
<artifactId>flink-hbase_2.11</artifactId>
而且我看jar中是有HBaseConfiguration这个类的,为什么放到服务器上执行就报错呢,在本地执行没问题