Re:[进度更新] [讨论] Flink 对 Hive 的兼容 和 Catalogs

2019-03-19 Thread
1、首先对flink纳入阿里麾下表示很兴奋,针对以下问题,根据我的一些经验,抛砖引玉: hive太重要了,稳定,夜间跑任务,可以满足。 - *各位在使用哪个版本的Hive?有计划升级Hive吗?*// cdh5版本 无计划升级 - *各位计划切换Hive引擎吗?有时间点吗?当Flink具备什么功能以后你才会考虑使用Flink读写Hive?*//尝试spark引擎跑夜间任务,不稳定。对于性能,不是特别追求,稳定了,就会尝试flink on hive -

异步IO exception

2019-02-24 Thread
异步IO不稳定 private val DEFAULT_TIME_OUT = 300sjava.lang.Exception: An async function call terminated with an exception. Failing the AsyncWaitOperator. at org.apache.flink.streaming.api.operators.async.Emitter.output(Emitter.java:137) at

flink sink es

2019-02-23 Thread
flink sink es exception,也暂时没有思路。2019-02-23 19:46:34.460 +0800 [Source: order_label_map -> Flat Map -> Map (1/1)] WARN [com.imdada.parse.OrderLabelParse] [AbstractParseModel.scala:20] - fail parse json

flink sink es

2019-02-23 Thread
阿里大神,这问题无思路了。偶先。暂时不清楚会不会丢数据。从falcon对es的监控来看,es正常。2019-02-23 19:46:30.965 +0800 [Source: jd_mall_order -> Flat Map -> (Sink: Unnamed, Sink: Unnamed) (1/1)] WARN [com.imdada.parse.PublishTimeParse] [AbstractParseModel.scala:20] - fail parse json

Re:kafka consumer exception

2019-02-20 Thread
很感谢,目前我们也是这种思路。 可惜还暂时未解决。 -- Original -- From: "ForwardXu"; Date: Wed, Feb 20, 2019 03:23 PM To: "user-zh"; Subject: 回复:kafka consumer exception 董鹏,你好: 你这个问题可能多半是你在kafka consumer配置中配置了client-id,然后flink多线程执行的时候用的是一样client-id向kaf

flink sink kafka exception

2019-02-19 Thread
flink大神,你们好。flink sink kafka 遇到这个异常,不影响job运行,不影响结果,偶尔抛出。向你们请教一下,希望获取些思路。2019-02-20 10:08:46.889 +0800 [Source: rn -> Flat Map -> async wait operator -> async wait operator -> Sink: Unnamed (17/20)] ERROR [org.apache.flink.streaming.runtime.tasks.StreamTask] [StreamTask.java:481] - Error during

kafka consumer exception

2019-02-19 Thread
flink大神你们好,在使用flink on kafka(1.0版本) 遇到如下异常: 不影响job,不影响结果,对于这个异常偶尔打出,你们是否有遇到这个问题呢? [org.apache.kafka.common.utils.AppInfoParser] [AppInfoParser.java:60] - Error registering AppInfo mbean javax.management.InstanceAlreadyExistsException: kafka.consumer:type=app-info,id=consumer-31 at

Re:完整的异常信息

2019-02-18 Thread
找到问题了:我有四条流并行写es,冲突导致。 只是异常抛的没搞明白 -- Original -- From: "董鹏"; Date: Tue, Feb 19, 2019 11:16 AM To: "user-zh"; Subject: 完整的异常信息 2019-02-19 10:39:51.845 +0800 [Source: order -> Flat Map -> Map -> Sink: Unnamed (1/1)] WARN [c

完整的异常信息

2019-02-18 Thread
stTransportException: [basedata03][10.10.2.15:9300][indices:data/write/bulk]at org.elasticsearch.transport.TransportService.sendRequestInternal(TransportService.java:531) at org.elasticsearch.transport.TransportService.sendRequest(TransportService.java:465) at org.elasticsearch.action.Tran

flink sink es execption

2019-02-18 Thread
es 5.x flink bulk sink 现象:运行几秒钟后抛异常 es数据可以正确插入 这个异常导致cpu上升 Caused by: org.elasticsearch.transport.SendRequestTransportException: [basedata03][10.10.2.15:9300][indices:data/write/bulk] at org.elasticsearch.transport.TransportService.sendRequestInternal(TransportService.java:531) at