老师你好,感谢您的回复,已确认是issue中的问题,截图为checkflushexception方法被调用的位置。
---原始邮件--- 发件人: "Caizhi Weng"<tsreape...@gmail.com> 发送时间: 2022年2月15日(周二) 中午11:04 收件人: "flink中文邮件组"<user-zh@flink.apache.org>; 主题: Re: jdbc connector 写入异常数据后,不再写入新数据时,异常信息不断嵌套,且不会抛出 Hi! 图片不能显示,建议传到 imgur 等外部图床上,并在邮件里贴出链接。 虽然看不到图片,但看描述应该是一个已知问题 [1],只是目前还没人修复。 [1] https://issues.apache.org/jira/browse/FLINK-24677 jianjianjianjianjianjianjianjian <724125...@qq.com.invalid> 于2022年2月14日周一 15:40写道: > 老师们,你们好: > 在使用jdbc connector写入操作时,*写入一条错误数据*(字段值超长)后*不再写入数据* > ,异常信息打印,但错误信息不会抛出,且异常信息会不断嵌套。该情况可能会导致问题延迟。 > 当前使用为1.13版本 org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat > 类 > 查阅 master 分支的 org.apache.flink.connector.jdbc.internal. > JdbcOutputFormat 类也存在类似问题,代码截图如下: > > *1.13版本:* > > master 分支: > > > > >