老师你好,感谢您的回复,已确认是issue中的问题,截图为checkflushexception方法被调用的位置。



---原始邮件---
发件人: "Caizhi Weng"<tsreape...@gmail.com&gt;
发送时间: 2022年2月15日(周二) 中午11:04
收件人: "flink中文邮件组"<user-zh@flink.apache.org&gt;;
主题: Re: jdbc connector 写入异常数据后,不再写入新数据时,异常信息不断嵌套,且不会抛出


Hi!

图片不能显示,建议传到 imgur 等外部图床上,并在邮件里贴出链接。

虽然看不到图片,但看描述应该是一个已知问题 [1],只是目前还没人修复。

[1] https://issues.apache.org/jira/browse/FLINK-24677

jianjianjianjianjianjianjianjian <724125...@qq.com.invalid&gt; 于2022年2月14日周一
15:40写道:

&gt; 老师们,你们好:
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 在使用jdbc 
connector写入操作时,*写入一条错误数据*(字段值超长)后*不再写入数据*
&gt; ,异常信息打印,但错误信息不会抛出,且异常信息会不断嵌套。该情况可能会导致问题延迟。
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 当前使用为1.13版本 
org.apache.flink.connector.jdbc.internal.JdbcBatchingOutputFormat
&gt; 类
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 查阅 master 分支的 
org.apache.flink.connector.jdbc.internal.
&gt; JdbcOutputFormat&nbsp; 类也存在类似问题,代码截图如下:
&gt;
&gt; *1.13版本:*
&gt;
&gt; master 分支:
&gt;
&gt;
&gt;
&gt;
&gt;

回复