Hi:
这个方法之前试过了,确实有效的。但是有个地方不明白,就是sql解析这个是在driver端进行的,我的driver的jar包已经包含hbase相关的jar包,为什么还要在lib目录下加上?


原始邮件
发件人:Terry [email protected]
收件人:[email protected]
发送时间:2020年1月3日(周五) 11:02
主题:Re: flink 创建hbase出错


Hi, flink-hbase_2.11-1.9.0.jar 只包括了flink对hbase读写的封装的类,并没有提供hbase 
client的类,你需要把hbaes client等相关的jar包提供出来放到 lib包里面。 Best, Terry Wang  2020年1月2日 
16:54,lucas.wu [email protected] 写道:   Hi 大家好  
有个问题要问问大家,我现在用flink1.9版本创建hbase表  sql:  create table hbase_dimention_table(  id 
varchar,  info ROW(xxx)  )with(  'connector.type' = 'hbase',  
'connector.version' = '1.4.3',  'connector.table-name' = 'xxxx',  
'connector.zookeeper.quorum' = ‘xxx'  );  接着把flink-hbase_2.11-1.9.0.jar 
放到了lib目录下,但是在执行的时候出现这种错误  
org.apache.flink.client.program.ProgramInvocationException: The main method 
caused an error: SQL validation failed. findAndCreateTableSource failed  Caused 
by: java.lang.ClassNotFoundException: 
org.apache.hadoop.hbase.HBaseConfiguration      请问我还需要在那里加上依赖?

回复