Hi 你服务器上是否配置了hadoop_classpath? 建议hbase在试用时 用 hadoop_classpath + flink-hbase jar,不然依赖问题会比较麻烦。
祝好 Leonard Xu > 在 2020年6月11日,14:24,酷酷的浑蛋 <apach...@163.com> 写道: > > > > 在使用flink sql ddl语句向hbase中写的时候报如下错误: > java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration > at > org.apache.flink.addons.hbase.HBaseUpsertTableSink.consumeDataStream(HBaseUpsertTableSink.java:87) > at > org.apache.flink.table.planner.plan.nodes.physical.stream.StreamExecSink.translateToPlanInternal(StreamExecSink.scala:141) > at > org.apache.flink.table.planner.plan.nodes.physical.stream.StreamExecSink.translateToPlanInternal(StreamExecSink.scala:50) > > > 项目maven中已经引入过下面依赖 > <artifactId>hbase-server</artifactId> > <artifactId>hbase-common</artifactId> > <artifactId>hadoop-common</artifactId> > <artifactId>flink-hbase_2.11</artifactId> > 而且我看jar中是有HBaseConfiguration这个类的,为什么放到服务器上执行就报错呢,在本地执行没问题