Hi: 这个方法之前试过了,确实有效的。但是有个地方不明白,就是sql解析这个是在driver端进行的,我的driver的jar包已经包含hbase相关的jar包,为什么还要在lib目录下加上?
原始邮件 发件人:Terry [email protected] 收件人:[email protected] 发送时间:2020年1月3日(周五) 11:02 主题:Re: flink 创建hbase出错 Hi, flink-hbase_2.11-1.9.0.jar 只包括了flink对hbase读写的封装的类,并没有提供hbase client的类,你需要把hbaes client等相关的jar包提供出来放到 lib包里面。 Best, Terry Wang 2020年1月2日 16:54,lucas.wu [email protected] 写道: Hi 大家好 有个问题要问问大家,我现在用flink1.9版本创建hbase表 sql: create table hbase_dimention_table( id varchar, info ROW(xxx) )with( 'connector.type' = 'hbase', 'connector.version' = '1.4.3', 'connector.table-name' = 'xxxx', 'connector.zookeeper.quorum' = ‘xxx' ); 接着把flink-hbase_2.11-1.9.0.jar 放到了lib目录下,但是在执行的时候出现这种错误 org.apache.flink.client.program.ProgramInvocationException: The main method caused an error: SQL validation failed. findAndCreateTableSource failed Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.hbase.HBaseConfiguration 请问我还需要在那里加上依赖?
