This is an automated email from the ASF dual-hosted git repository.
liaoxin pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/doris-website.git
The following commit(s) were added to refs/heads/master by this push:
new a45fe7667a4 [fix](load) fix format of load FAQ (#2349)
a45fe7667a4 is described below
commit a45fe7667a4a98996ea074df92d6a26d91e88f1b
Author: Xin Liao <[email protected]>
AuthorDate: Wed Apr 30 10:46:12 2025 +0800
[fix](load) fix format of load FAQ (#2349)
---
.../current/faq/load-faq.md | 16 ++++++++--------
.../version-2.1/faq/load-faq.md | 16 ++++++++--------
.../version-3.0/faq/load-faq.md | 16 ++++++++--------
3 files changed, 24 insertions(+), 24 deletions(-)
diff --git a/i18n/zh-CN/docusaurus-plugin-content-docs/current/faq/load-faq.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/faq/load-faq.md
index 35d5ffbc946..f10ff2af1d5 100644
--- a/i18n/zh-CN/docusaurus-plugin-content-docs/current/faq/load-faq.md
+++ b/i18n/zh-CN/docusaurus-plugin-content-docs/current/faq/load-faq.md
@@ -26,7 +26,7 @@ under the License.
## 导入通用问题
-### 报错”[DATA_QUALITY_ERROR] Encountered unqualified data“
+### 报错"[DATA_QUALITY_ERROR] Encountered unqualified data"
**问题描述**:导入报数据质量错误。
**解决方案**:
@@ -34,26 +34,26 @@ under the License.
- 通过浏览器或 curl 命令访问错误 URL 查看具体的数量质量错误原因。
- 通过 strict_mode 和 max_filter_ratio 参数项来控制能容忍的错误率。
-### 报错“[E-235] Failed to init rowset builder”
+### 报错"[E-235] Failed to init rowset builder"
**问题描述**:-235 错误是因为导入频率过高,数据未能及时 compaction,超过版本限制。
**解决方案**:
- 增加每批次导入数据量,降低导入频率。
- 在 `be.conf` 中调大 `max_tablet_version_num` 参数, 建议不超过5000。
-### 报错“[E-238] Too many segments in rowset”
+### 报错"[E-238] Too many segments in rowset"
**问题描述**:-238 错误是因为单个 rowset 下的 segment 数量超限。
**常见原因**:
- 建表时 bucket 数配置过小。
- 数据出现倾斜,建议使用更均衡的分桶键。
-### 报错”Transaction commit successfully, BUT data will be visible later“
+### 报错"Transaction commit successfully, BUT data will be visible later"
**问题描述**:数据导入成功但暂时不可见。
**原因**:通常是由于系统资源压力导致事务 publish 延迟。
-### 报错”Failed to commit kv txn [...] Transaction exceeds byte limit“
+### 报错"Failed to commit kv txn [...] Transaction exceeds byte limit"
**问题描述**:存算分离模式下,单次导入涉及的 partition 和 tablet 过多, 超过事务大小的限制。
**解决方案**:
@@ -118,21 +118,21 @@ curl --location-trusted -u root:"" \
| ----------------------- | -------- |
---------------------------------------------------------- |
| 增加了可观测性相关的 Metrics 指标 | 3.0.5 |
[#48209](https://github.com/apache/doris/pull/48209),
[#48171](https://github.com/apache/doris/pull/48171),
[#48963](https://github.com/apache/doris/pull/48963) |
-### 报错”failed to get latest offset“
+### 报错"failed to get latest offset"
**问题描述**:Routine Load 无法获取 Kafka 最新的 Offset。
**常见原因**:
- 一般都是到kafka的网络不通, ping或者telnet kafka的域名确认下
- 三方库的bug导致的获取超时,错误为:java.util.concurrent.TimeoutException: Waited X seconds
-### 报错”failed to get partition meta: Local:'Broker transport failure“
+### 报错"failed to get partition meta: Local:'Broker transport failure"
**问题描述**:Routine Load 无法获取 Kafka Topic 的 Partition Meta。
**常见原因**:
- 一般都是到kafka的网络不通, ping或者telnet kafka的域名确认下
- 如果使用的是域名的方式,可以在/etc/hosts 配置域名映射
-### 报错“Broker: Offset out of range”
+### 报错"Broker: Offset out of range"
**问题描述**:消费的 offset 在 kafka 中不存在,可能是因为该 offset 已经被 kafka 清理掉了。
**解决方案**:
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/faq/load-faq.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/faq/load-faq.md
index 35d5ffbc946..f10ff2af1d5 100644
--- a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/faq/load-faq.md
+++ b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.1/faq/load-faq.md
@@ -26,7 +26,7 @@ under the License.
## 导入通用问题
-### 报错”[DATA_QUALITY_ERROR] Encountered unqualified data“
+### 报错"[DATA_QUALITY_ERROR] Encountered unqualified data"
**问题描述**:导入报数据质量错误。
**解决方案**:
@@ -34,26 +34,26 @@ under the License.
- 通过浏览器或 curl 命令访问错误 URL 查看具体的数量质量错误原因。
- 通过 strict_mode 和 max_filter_ratio 参数项来控制能容忍的错误率。
-### 报错“[E-235] Failed to init rowset builder”
+### 报错"[E-235] Failed to init rowset builder"
**问题描述**:-235 错误是因为导入频率过高,数据未能及时 compaction,超过版本限制。
**解决方案**:
- 增加每批次导入数据量,降低导入频率。
- 在 `be.conf` 中调大 `max_tablet_version_num` 参数, 建议不超过5000。
-### 报错“[E-238] Too many segments in rowset”
+### 报错"[E-238] Too many segments in rowset"
**问题描述**:-238 错误是因为单个 rowset 下的 segment 数量超限。
**常见原因**:
- 建表时 bucket 数配置过小。
- 数据出现倾斜,建议使用更均衡的分桶键。
-### 报错”Transaction commit successfully, BUT data will be visible later“
+### 报错"Transaction commit successfully, BUT data will be visible later"
**问题描述**:数据导入成功但暂时不可见。
**原因**:通常是由于系统资源压力导致事务 publish 延迟。
-### 报错”Failed to commit kv txn [...] Transaction exceeds byte limit“
+### 报错"Failed to commit kv txn [...] Transaction exceeds byte limit"
**问题描述**:存算分离模式下,单次导入涉及的 partition 和 tablet 过多, 超过事务大小的限制。
**解决方案**:
@@ -118,21 +118,21 @@ curl --location-trusted -u root:"" \
| ----------------------- | -------- |
---------------------------------------------------------- |
| 增加了可观测性相关的 Metrics 指标 | 3.0.5 |
[#48209](https://github.com/apache/doris/pull/48209),
[#48171](https://github.com/apache/doris/pull/48171),
[#48963](https://github.com/apache/doris/pull/48963) |
-### 报错”failed to get latest offset“
+### 报错"failed to get latest offset"
**问题描述**:Routine Load 无法获取 Kafka 最新的 Offset。
**常见原因**:
- 一般都是到kafka的网络不通, ping或者telnet kafka的域名确认下
- 三方库的bug导致的获取超时,错误为:java.util.concurrent.TimeoutException: Waited X seconds
-### 报错”failed to get partition meta: Local:'Broker transport failure“
+### 报错"failed to get partition meta: Local:'Broker transport failure"
**问题描述**:Routine Load 无法获取 Kafka Topic 的 Partition Meta。
**常见原因**:
- 一般都是到kafka的网络不通, ping或者telnet kafka的域名确认下
- 如果使用的是域名的方式,可以在/etc/hosts 配置域名映射
-### 报错“Broker: Offset out of range”
+### 报错"Broker: Offset out of range"
**问题描述**:消费的 offset 在 kafka 中不存在,可能是因为该 offset 已经被 kafka 清理掉了。
**解决方案**:
diff --git
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/faq/load-faq.md
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/faq/load-faq.md
index 35d5ffbc946..f10ff2af1d5 100644
--- a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/faq/load-faq.md
+++ b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/faq/load-faq.md
@@ -26,7 +26,7 @@ under the License.
## 导入通用问题
-### 报错”[DATA_QUALITY_ERROR] Encountered unqualified data“
+### 报错"[DATA_QUALITY_ERROR] Encountered unqualified data"
**问题描述**:导入报数据质量错误。
**解决方案**:
@@ -34,26 +34,26 @@ under the License.
- 通过浏览器或 curl 命令访问错误 URL 查看具体的数量质量错误原因。
- 通过 strict_mode 和 max_filter_ratio 参数项来控制能容忍的错误率。
-### 报错“[E-235] Failed to init rowset builder”
+### 报错"[E-235] Failed to init rowset builder"
**问题描述**:-235 错误是因为导入频率过高,数据未能及时 compaction,超过版本限制。
**解决方案**:
- 增加每批次导入数据量,降低导入频率。
- 在 `be.conf` 中调大 `max_tablet_version_num` 参数, 建议不超过5000。
-### 报错“[E-238] Too many segments in rowset”
+### 报错"[E-238] Too many segments in rowset"
**问题描述**:-238 错误是因为单个 rowset 下的 segment 数量超限。
**常见原因**:
- 建表时 bucket 数配置过小。
- 数据出现倾斜,建议使用更均衡的分桶键。
-### 报错”Transaction commit successfully, BUT data will be visible later“
+### 报错"Transaction commit successfully, BUT data will be visible later"
**问题描述**:数据导入成功但暂时不可见。
**原因**:通常是由于系统资源压力导致事务 publish 延迟。
-### 报错”Failed to commit kv txn [...] Transaction exceeds byte limit“
+### 报错"Failed to commit kv txn [...] Transaction exceeds byte limit"
**问题描述**:存算分离模式下,单次导入涉及的 partition 和 tablet 过多, 超过事务大小的限制。
**解决方案**:
@@ -118,21 +118,21 @@ curl --location-trusted -u root:"" \
| ----------------------- | -------- |
---------------------------------------------------------- |
| 增加了可观测性相关的 Metrics 指标 | 3.0.5 |
[#48209](https://github.com/apache/doris/pull/48209),
[#48171](https://github.com/apache/doris/pull/48171),
[#48963](https://github.com/apache/doris/pull/48963) |
-### 报错”failed to get latest offset“
+### 报错"failed to get latest offset"
**问题描述**:Routine Load 无法获取 Kafka 最新的 Offset。
**常见原因**:
- 一般都是到kafka的网络不通, ping或者telnet kafka的域名确认下
- 三方库的bug导致的获取超时,错误为:java.util.concurrent.TimeoutException: Waited X seconds
-### 报错”failed to get partition meta: Local:'Broker transport failure“
+### 报错"failed to get partition meta: Local:'Broker transport failure"
**问题描述**:Routine Load 无法获取 Kafka Topic 的 Partition Meta。
**常见原因**:
- 一般都是到kafka的网络不通, ping或者telnet kafka的域名确认下
- 如果使用的是域名的方式,可以在/etc/hosts 配置域名映射
-### 报错“Broker: Offset out of range”
+### 报错"Broker: Offset out of range"
**问题描述**:消费的 offset 在 kafka 中不存在,可能是因为该 offset 已经被 kafka 清理掉了。
**解决方案**:
---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]