format.fail-on-missing-field format.ignore-parse-errors
挺有用的,可以容错数据格式不对,缺少字段等。 但是不能容错对于使用事件时间的处理模型,因为容错的手段是将所有字段值设为null,事件时间也设置为null。 但是flink sql需要从数据中提取事件时间且不能为null,否则就会抛出异常,从这一点来说,上述配置并没有完全容错,详细如下源码(这里应该可以考虑直接跳过这条数据吧?): https://github.com/apache/flink/blob/master/flink-table/flink-table-runtime-blink/src/main/java/org/apache/flink/table/runtime/operators/wmassigners/WatermarkAssignerOperator.java RowData row = element.getValue(); if (row.isNullAt(rowtimeFieldIndex)) { throw new RuntimeException("RowTime field should not be null," + " please convert it to a non-null long value."); } 在 2020-12-20 11:33:37,"邮件帮助中心" <[email protected]> 写道: Flink代码里Json反序列化里有2个参数应该对你有帮助,你到官网上查询下怎么使用 上述2个配置项的参数名字分别是: format.fail-on-missing-field format.ignore-parse-errors 在 2020-12-20 10:48:04,"陈帅" <[email protected]> 写道: >业务上游数据源发出来的数据有可能会有脏数据导致数据无法解析成源表的结构,如kafka json topic映射成源表。 >请问这种情况下flink sql要如何处理? 期望的是将脏数据发到一个专门的topic,是不是要自己写个connector? 标准kafka >connector支持这种需求么?
