Re:flink-Kafka 报错:ByteArraySerializer is not an instance of org.apache.kafka.common.serialization.Serializer

2021-02-26 Thread felixzh
hi,这个是依赖的问题。如果集群flink/lib下已经有了flink-connector-kafka.jar,提交的任务pom里面就要provider一下 在 2021-01-22 16:14:17,"lp" <973182...@qq.com> 写道: >测试代码如下: >-- >public class Sink_KafkaSink_1{ >public static void main(String[] args) throws Exception { >final

Re:Re: flink-sql-gateway稳定性如何,可以在生产环境使用吗?

2021-01-27 Thread felixzh
如果使用flink-sql-gateway,建议自己参照jdbc封装一个session-client 在 2021-01-27 14:41:28,"Jeff Zhang" 写道: >zeppelin 有 rest api 接口,https://www.yuque.com/jeffzhangjianfeng/gldg8w/pz2xoh > >jinsx 于2021年1月27日周三 下午2:30写道: > >> 如果使用zeppelin,zeppelin可以提供rpc接口吗 >> >> >> >> -- >> Sent from:

Re:flink12同时使用flink-connector-kafka和flink-sql-connector-kafka会引发类冲突问题

2020-12-29 Thread felixzh
org.apache.flink flink-connector-kafka-2.2_2.11 1.12.0provided 在 2020-12-26 10:37:52,"site" 写道: >在yarn中部署streaming程序,maven使用依赖 > >org.apache.flink >flink-connector-kafka-2.2_2.11 >1.12.0 >

Re:flink1.10.2 读取mysql并打印数据,本地可以执行,yarn上报错,什么原因呢

2020-12-29 Thread felixzh
拒绝连接: emr-worker-4.cluster/:40751 主机名不识别? At 2020-12-29 13:51:11, "xufengfeng" <503814...@qq.com> wrote: >Caused by: org.apache.flink.runtime.concurrent.FutureUtils$RetryException: >Could not complete the operation. Number of retries has been exhausted. > at

Re:Flink on yarn 如何指定固定几台yarn节点当做flink任务的运行节点

2020-12-21 Thread felixzh
这个没办法做到吧。想做资源隔离的话,应该只需要分队列就行 在 2020-12-21 16:43:35,"yujianbo" <15205029...@163.com> 写道: >各位大佬好: > 请问Flink on yarn 如何指定固定几台yarn节点当做flink任务的运行节点? > > > >-- >Sent from: http://apache-flink.147419.n8.nabble.com/

Re:Re:flink sql如何处理脏数据?

2020-12-19 Thread felixzh
format.fail-on-missing-field format.ignore-parse-errors 挺有用的,可以容错数据格式不对,缺少字段等。 但是不能容错对于使用事件时间的处理模型,因为容错的手段是将所有字段值设为null,事件时间也设置为null。 但是flink sql需要从数据中提取事件时间且不能为null,否则就会抛出异常,从这一点来说,上述配置并没有完全容错,详细如下源码(这里应该可以考虑直接跳过这条数据吧?):

Re:create table语句从kafka中读取数据时,创建的表的数据保存多久?

2020-12-15 Thread felixzh
数据还是保存在kafka里面的,具体保存多久,要看你kafka的全局配置或者特定topic的配置 At 2020-12-09 20:24:17, "邮件帮助中心" wrote: >

Re:Flink操作 kafka ,hive遇到kerberos过期

2020-07-30 Thread felixzh
遇到kerberos过期问题,应该是你使用的是ticket cache,而不是keytab文件做认证 在 2020-07-28 17:58:51,"lydata" 写道: > 请问下 Flink操作 kafka ,hive遇到kerberos过期 有什么解决方法吗?

FLink1.11.1整合hadoop3.0.0

2020-07-29 Thread felixzh
以 -m yarn-clsuter运行flink1.11.1的examples/streaming/SocketWindowWordCount.jar 任务正常。ncat -l 输入数据可以在taskmanager.out日志中看到。 但是,yarn 中ApplicationMaster(也就是Tracking UI)打不开flink集群的页面 提示:{"errors":["Unable to load requested file /index.html"]} 大佬遇到过吗?

Flink整合hive之后,通过flink创建的表,hive beeline可见表,不可见字段?

2020-07-20 Thread felixzh
参照文档https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/hive/#connecting-to-hive 通过flink创建表:CREATE TABLE Orders (product STRING, amount INT) 在beeline端可见表,但是desc看不到字段,select * from orders也不可用