回复:回复:使用StreamingFileSink向hive metadata中增加分区部分失败

2020-09-07 文章
就第二次提供的日志看,好像是你的namenode出现的问题 -- 发件人:MuChen <9329...@qq.com> 发送时间:2020年9月8日(星期二) 10:56 收件人:user-zh@flink.apache.org 夏帅 ; user-zh 主 题:回复: 回复:使用StreamingFileSink向hive metadata中增加分区部分失败 在checkpoint失败的时间,tm上还有一些info和warn级别的日志

回复:使用StreamingFileSink向hive metadata中增加分区部分失败

2020-09-07 文章
异常日志只有这些么?有没有详细点的

回复: flink1.9写权限认证的es6

2020-07-16 文章
get到了 来自钉钉专属商务邮箱-- 发件人:Yangze Guo 日 期:2020年07月17日 13:38:35 收件人:user-zh 主 题:Re: flink1.9写权限认证的es6 Hi, SQL添加认证的逻辑已经在FLINK-18361[1] 中完成了,1.12版本会支持这个功能 [1] https://issues.apache.org/jira/browse/FLINK-18361 Best, Yangze Guo On

回复:flink1.9写权限认证的es6

2020-07-16 文章
你好,请问是FlinkSQL么 FLinkSQL可以参考下这份邮件 http://apache-flink.147419.n8.nabble.com/ddl-es-td2094.html DataStream可以尝试自定义ElasticsearchSink实现权限认证 -- 发件人:Dream-底限 发送时间:2020年7月17日(星期五) 10:12 收件人:user-zh 主 题:flink1.9写权限认证的es6 hi:

回复:flink connector formats问题

2020-07-16 文章
你好,这个是可以进行自定义的 参考https://jxeditor.github.io/2020/06/11/FlinkSQL%E8%87%AA%E5%AE%9A%E4%B9%89FORMAT_TYPE/ -- 发件人:酷酷的浑蛋 发送时间:2020年7月17日(星期五) 10:42 收件人:user-zh 主 题:flink connector formats问题

回复:回复: 不能实时读取实时写入到 Hive 的数据

2020-07-14 文章
你好, 可以参考下这个问题的解决 http://apache-flink.147419.n8.nabble.com/Table-options-do-not-contain-an-option-key-connector-for-discovering-a-connector-td4767.html -- 发件人:wangl...@geekplus.com.cn 发送时间:2020年7月14日(星期二) 16:50 收件人:user-zh ; 夏帅

回复:Re: 不能实时读取实时写入到 Hive 的数据

2020-07-14 文章
你好, 这说明写入的hive文件没有进行rollup,可以贴下SQL么 -- 发件人:wangl...@geekplus.com.cn 发送时间:2020年7月14日(星期二) 16:40 收件人:user-zh ; xbjtdcq 主 题:回复: Re: 不能实时读取实时写入到 Hive 的数据 我加上了这个 tablehint 。 任务提交上去了,但客户端还是没有任何返回显示。 我到 hadoop 集群上看了下 hive

回复:Re: flink 同时sink hbase和hive,hbase少记录

2020-07-13 文章
你好, 本质还是StreamingFileSink,所以目前只能append -- 发件人:Zhou Zach 发送时间:2020年7月14日(星期二) 10:56 收件人:user-zh 主 题:Re:Re: flink 同时sink hbase和hive,hbase少记录 Hi Leonard, 原来是有重复key,hbase做了upsert,请问Hive Streaming

回复:Re: Re: Table options do not contain an option key 'connector' for discovering a connector.

2020-07-13 文章
你好, 你设置了1个小时的 SINK_PARTITION_COMMIT_DELAY -- 发件人:Zhou Zach 发送时间:2020年7月13日(星期一) 17:09 收件人:user-zh 主 题:Re:Re: Re: Table options do not contain an option key 'connector' for discovering a connector. 开了checkpoint, val

回复:flink 1.11 使用sql写入hdfs无法自动提交分区

2020-07-10 文章
你好, 我这边同样的代码,并没有出现类似的问题 是本地跑么,可以提供下日志信息么?

回复:Re: 回复:flink Sql 1.11 executeSql报No operators defined in streaming topology

2020-07-08 文章
感谢

回复:flink Sql 1.11 executeSql报No operators defined in streaming topology

2020-07-08 文章
你好, 可以看看你的代码结构是不是以下这种 val bsEnv = StreamExecutionEnvironment.getExecutionEnvironment val bsSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build val tableEnv = StreamTableEnvironment.create(bsEnv, bsSettings) .. tableEnv.execute("")

回复:FlinkKafkaProducer没有写入多个topic的功能

2020-07-07 文章
你好,可以尝试自定义KafkaSerializationSchema来实现你的业务场景 class DemoSerializationSchema extends KafkaSerializationSchema[DemoBean] { override def serialize(element: DemoBean, timestamp: lang.Long): ProducerRecord[Array[Byte], Array[Byte]] = { new ProducerRecord[Array[Byte], Array[Byte]](element.getTopic,

回复:【Flink的shuffle mode】

2020-07-07 文章
补充: 1.11的shuffle-mode配置的默认值为ALL_EDGES_BLOCKING 共有 ALL_EDGES_BLOCKING(等同于batch) FORWARD_EDGES_PIPELINEDPOINTWISE_EDGES_PIPELINED ALL_EDGES_PIPELINED(等同于pipelined)对于pipelined多出了两种选择 -- 发件人:忝忝向仧 <153488...@qq.com> 发送时间:2020年7月7日(星期二)

回复:【Flink的shuffle mode】

2020-07-07 文章
你好: 问题1,指定shuffle_mode tEnv.getConfig.getConfiguration.setString(ExecutionConfigOptions.TABLE_EXEC_SHUFFLE_MODE, "pipeline") 问题2,mode是UNDEFINED的概念 使用UNDEFINED并不是说模式没有定义,而是由框架自己决定 The shuffle mode is undefined. It leaves it up to the framework to decide the shuffle mode.

回复:【Flink的shuffle mode】

2020-07-05 文章
你好,可以参考下ExecutionConfigOptions,OptimizerConfigOptions和GlobalConfiguration,里面有比较清楚地介绍 -- 发件人:忝忝向仧 <153488...@qq.com> 发送时间:2020年7月6日(星期一) 12:16 收件人:user-zh 主 题:回复:【Flink的shuffle mode】

回复:Position out of bounds.

2020-07-02 文章
不好意思,看错了,这里是自增了 来自钉钉专属商务邮箱-- 发件人:xuhaiLong 日 期:2020年07月02日 18:46:37 收件人:夏帅 抄 送:user-zh 主 题:回复:Position out of bounds. 感谢 没看明白这个bug引起的原因是什么,或者说有什么合适的解决方案? | | 夏* | | 邮箱:xiagu...@163.com | 签名由 网易邮箱大师 定制 在2020年07月02日 18:39,夏帅 写

回复:Position out of bounds.

2020-07-02 文章
你好,请问解决了么,我看了下源码,好像是一个bug DataOutputSerializer @Override public void write(int b) throws IOException { if (this.position >= this.buffer.length) { resize(1); } this.buffer[this.position++] = (byte) (b & 0xff); } 此处position应该自增

回复:flink sql ddl CREATE TABLE kafka011 sink 如何开启事务exactly-once?

2020-07-01 文章
你好,可以尝试自定义实现Kafka011TableSourceSinkFactory和Kafka011TableSink来实现exactly-once Kafka011TableSink @Override protected SinkFunction createKafkaProducer( String topic, Properties properties, SerializationSchema serializationSchema, Optional> partitioner) { return new

回复:flink1.10 使用 ParquetAvroWriters schema 模式写数据问题

2020-06-29 文章
record.put("platform", x.get(0)) record.put("event", x.get(1)) record.put("dt", x.get(2)) record }) -- 发件人:yingbo yang 发送时间:2020年6月29日(星期一) 10:04 收件人:夏帅 抄 送:user-zh 主 题:Re: flink1.10 使用 Par

回复:flink1.10 使用 ParquetAvroWriters schema 模式写数据问题

2020-06-28 文章
你好,这个问题从异常来看是使用TupleTypeInfo导致的,可以试下使用GenericRecordAvroTypeInfo -- 发件人:yingbo yang 发送时间:2020年6月28日(星期日) 17:38 收件人:user-zh 主 题:flink1.10 使用 ParquetAvroWriters schema 模式写数据问题 Hi: 在使用 ParquetAvroWriters.forGenericRecord(Schema

Flink新出的OrcBulkWriterFactory有没有大佬给个详细的Demo

2020-06-08 文章
自己在使用时,会有文件生成,但是文件内并不包含数据

回复:Flink1.11-release编译部署后sql-client的bug

2020-06-01 文章
好的,感谢 -- 发件人:godfrey he 发送时间:2020年6月2日(星期二) 12:32 收件人:user-zh 抄 送:夏帅 主 题:Re: Flink1.11-release编译部署后sql-client的bug Hi, 夏帅 感谢反馈问题,我建了一个issue https://issues.apache.org/jira/browse/FLINK-18055,应该今天就可以fix Best, Godfrey Leonard Xu

Flink1.11-release编译部署后sql-client的bug

2020-06-01 文章
大家好,有人编译部署过flink-1.11-release么,为什么我使用sql-client时设置了catalog 但是并不生效,顺带自动补全也不太好使 是我编译的问题么,在window下编译的 编译步骤见链接 https://jxeditor.github.io/2020/06/01/Flink1.11.0%E7%BC%96%E8%AF%91/ $ mvn -version Apache Maven 3.5.4 (1edded0938998edf8bf061f1ceb3cfdeccf443fe; 2018-06-18T02:33:14+08:00) Flink SQL> show

回复:Kafka Consumer反序列化错问题

2020-05-29 文章
可以排除一下是否是jar包冲突 -- 发件人:Even <452232...@qq.com> 发送时间:2020年5月29日(星期五) 16:17 收件人:user-zh 主 题:Kafka Consumer反序列化错问题 Hi! 请教一个Kafka Consumer反序列问题: 一个kafkaconsumerjob 提交到Flink session cluster时运行稳定,但是独立提交到到Flink per-job cluster