This is an automated email from the ASF dual-hosted git repository.

morningman pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/doris-website.git


The following commit(s) were added to refs/heads/master by this push:
     new 29d640b3ee6 [opt] fix before poc doc (#3492)
29d640b3ee6 is described below

commit 29d640b3ee6e10dac6c8b1596cdbde889520bed9
Author: Mingyu Chen (Rayner) <[email protected]>
AuthorDate: Tue Mar 24 23:55:53 2026 -0700

    [opt] fix before poc doc (#3492)
---
 .../current/gettingStarted/before-you-start-the-poc.md                  | 2 +-
 .../version-3.x/gettingStarted/before-you-start-the-poc.md              | 2 +-
 .../version-4.x/gettingStarted/before-you-start-the-poc.md              | 2 +-
 3 files changed, 3 insertions(+), 3 deletions(-)

diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/gettingStarted/before-you-start-the-poc.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/gettingStarted/before-you-start-the-poc.md
index c92d96fd54e..1e40fe39f60 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/gettingStarted/before-you-start-the-poc.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/gettingStarted/before-you-start-the-poc.md
@@ -109,7 +109,7 @@ DISTRIBUTED BY HASH(site_id) BUCKETS 10;
 
 选择合适的导入方式并遵循以下最佳实践,可以有效避免常见的性能问题:
 
-- **批量数据不要用 `INSERT INTO VALUES`。**请使用 [Stream 
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker 
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
+- **批量数据不要用 `INSERT INTO VALUES`**。请使用 [Stream 
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker 
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
 - **优先在客户端合并写入。**高频小批次导入导致版本堆积。如不可行,使用 [Group 
Commit](../data-operate/import/group-commit-manual)。
 - **将大型导入拆分为小批次。**长时间运行的导入失败后必须从头重试。使用 [INSERT INTO SELECT 配合 S3 
TVF](../data-operate/import/streaming-job/streaming-job-tvf) 实现增量导入。
 - **Random 分桶的 Duplicate Key 表启用 `load_to_single_tablet`**,减少写放大。
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/gettingStarted/before-you-start-the-poc.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/gettingStarted/before-you-start-the-poc.md
index ea78de33273..6b79675abc4 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/gettingStarted/before-you-start-the-poc.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/gettingStarted/before-you-start-the-poc.md
@@ -109,7 +109,7 @@ DISTRIBUTED BY HASH(site_id) BUCKETS 10;
 
 选择合适的导入方式并遵循以下最佳实践,可以有效避免常见的性能问题:
 
-- **批量数据不要用 `INSERT INTO VALUES`。**请使用 [Stream 
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker 
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
+- **批量数据不要用 `INSERT INTO VALUES`**。请使用 [Stream 
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker 
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
 - **优先在客户端合并写入。**高频小批次导入导致版本堆积。如不可行,使用 [Group 
Commit](../data-operate/import/group-commit-manual)。
 - **将大型导入拆分为小批次。**长时间运行的导入失败后必须从头重试。使用 [INSERT INTO SELECT 配合 S3 
TVF](../data-operate/import/import-way/insert-into-manual.md) 实现增量导入。
 - **Random 分桶的 Duplicate Key 表启用 `load_to_single_tablet`**,减少写放大。
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/gettingStarted/before-you-start-the-poc.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/gettingStarted/before-you-start-the-poc.md
index c92d96fd54e..1e40fe39f60 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/gettingStarted/before-you-start-the-poc.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/gettingStarted/before-you-start-the-poc.md
@@ -109,7 +109,7 @@ DISTRIBUTED BY HASH(site_id) BUCKETS 10;
 
 选择合适的导入方式并遵循以下最佳实践,可以有效避免常见的性能问题:
 
-- **批量数据不要用 `INSERT INTO VALUES`。**请使用 [Stream 
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker 
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
+- **批量数据不要用 `INSERT INTO VALUES`**。请使用 [Stream 
Load](../data-operate/import/import-way/stream-load-manual) 或 [Broker 
Load](../data-operate/import/import-way/broker-load-manual)。详见[导入概述](../data-operate/import/load-manual)。
 - **优先在客户端合并写入。**高频小批次导入导致版本堆积。如不可行,使用 [Group 
Commit](../data-operate/import/group-commit-manual)。
 - **将大型导入拆分为小批次。**长时间运行的导入失败后必须从头重试。使用 [INSERT INTO SELECT 配合 S3 
TVF](../data-operate/import/streaming-job/streaming-job-tvf) 实现增量导入。
 - **Random 分桶的 Duplicate Key 表启用 `load_to_single_tablet`**,减少写放大。


---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]

Reply via email to