This is an automated email from the ASF dual-hosted git repository.

dataroaring pushed a commit to branch master
in repository https://gitbox.apache.org/repos/asf/doris-website.git


The following commit(s) were added to refs/heads/master by this push:
     new 4f2c8cabff9 [typo](docs) some chinese/english typos for dev/3.x/4.x 
(#3378)
4f2c8cabff9 is described below

commit 4f2c8cabff99c5655e6c72f0548c92db5a6948c8
Author: Yongqiang YANG <[email protected]>
AuthorDate: Tue Feb 10 14:15:20 2026 -0800

    [typo](docs) some chinese/english typos for dev/3.x/4.x (#3378)
    
    ## Summary
    - Reapply the typo fixes from #1769 for `dev`, `3.x`, and `4.x`.
    - Fix `kakfa`/`Kakfa` -> `kafka`/`Kafka` in Chinese import docs and
    community trino connector guides (EN/ZH).
    - Fix wording in Chinese EXPLAIN docs: `具体方式先下表` -> `具体方式见下表`.
    
    ## Scope Check (dev / 3.x / 4.x)
    - [x] Checked English docs
    - [x] Checked Chinese docs
    
    ## Versions
    - [x] dev
    - [x] 4.x
    - [x] 3.x
    - [ ] 2.1
    - [ ] 2.0
    
    ## Languages
    - [x] Chinese
    - [x] English
    
    ## Reference
    - Original PR: https://github.com/apache/doris-website/pull/1769
    
    ---------
    
    Co-authored-by: daveyyan <[email protected]>
    Co-authored-by: Copilot <[email protected]>
---
 community/how-to-contribute/trino-connector-developer-guide.md       | 5 ++---
 .../current/how-to-contribute/trino-connector-developer-guide.md     | 5 ++---
 .../current/data-operate/import/import-way/routine-load-manual.md    | 3 +--
 .../current/data-operate/import/load-manual.md                       | 2 +-
 .../current/sql-manual/sql-statements/data-query/EXPLAIN.md          | 4 ++--
 .../data-operate/import/import-way/routine-load-manual.md            | 3 +--
 .../version-3.x/data-operate/import/load-manual.md                   | 2 +-
 .../version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md      | 4 ++--
 .../data-operate/import/import-way/routine-load-manual.md            | 3 +--
 .../version-4.x/data-operate/import/load-manual.md                   | 2 +-
 .../version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md      | 4 ++--
 11 files changed, 16 insertions(+), 21 deletions(-)

diff --git a/community/how-to-contribute/trino-connector-developer-guide.md 
b/community/how-to-contribute/trino-connector-developer-guide.md
index 1167115c29b..a91b244448b 100644
--- a/community/how-to-contribute/trino-connector-developer-guide.md
+++ b/community/how-to-contribute/trino-connector-developer-guide.md
@@ -39,7 +39,7 @@ The following takes Trino's kafka Connector plugin as an 
example to introduce in
 
 > Note: Trino is an Apache License 2.0 protocol open source software provided 
 > by [Trino Software Foundation](https://trino.io/foundation). For details, 
 > please visit [Trino official website](https://trino.io/docs/current/).
 
-## Step 1: Compile Kakfa connector plugin
+## Step 1: Compile Kafka connector plugin
 
 Trino does not provide officially compiled connector plugins, so we need to 
compile the required connector plugins ourselves.
 
@@ -82,7 +82,7 @@ After completing the previous two steps, we can use the 
Trino-Connector Catalog
     ```sql
     create catalog kafka_tpch properties (
         "type"="trino-connector",
-        -- The following four properties are derived from trino and are 
consistent with the properties in etc/catalog/kakfa.properties of trino. But 
need to add "trino." prefix
+        -- The following four properties are derived from trino and are 
consistent with the properties in etc/catalog/kafka.properties of trino. But 
need to add "trino." prefix
         "trino.connector.name"="kafka",
         
"trino.kafka.table-names"="tpch.customer,tpch.orders,tpch.lineitem,tpch.part,tpch.partsupp,tpch.supplier,tpch.nation,tpch.region",
         "trino.kafka.nodes"="localhost:9092",
@@ -154,4 +154,3 @@ The following are the Doris Trino-Connector catalog 
configuration of several com
         
"trino.bigquery.credentials-file"="/path/to/application_default_credentials.json"
     );
     ```
-
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs-community/current/how-to-contribute/trino-connector-developer-guide.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs-community/current/how-to-contribute/trino-connector-developer-guide.md
index 3f27d007b1f..76fc6b7c75e 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs-community/current/how-to-contribute/trino-connector-developer-guide.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs-community/current/how-to-contribute/trino-connector-developer-guide.md
@@ -37,7 +37,7 @@ Trino Connector 兼容框架的目的在于帮助 Doris 快速对接更多的数
 
 > 注:Trino 是一款由 [Trino 软件基金会](https://trino.io/foundation) 提供的 Apache License 
 > 2.0 协议开源软件,详情可访问 [Trino 官网](https://trino.io/docs/current/)。
 
-## Step 1:编译 Kakfa Connector 插件
+## Step 1:编译 Kafka Connector 插件
 
 Trino 没有提供官方编译好的 Connector 插件,所以需要我们自己编译所需 Connector 插件。
 
@@ -81,7 +81,7 @@ Trino 没有提供官方编译好的 Connector 插件,所以需要我们自己
     ```sql
     create catalog kafka_tpch properties (
         "type"="trino-connector",
-        -- 下面这四个属性来源于 trino,与 trino 的 etc/catalog/kakfa.properties 
中的属性一致。但需要统一增加 "trino." 前缀
+        -- 下面这四个属性来源于 trino,与 trino 的 etc/catalog/kafka.properties 
中的属性一致。但需要统一增加 "trino." 前缀
         "trino.connector.name"="kafka",
         
"trino.kafka.table-names"="tpch.customer,tpch.orders,tpch.lineitem,tpch.part,tpch.partsupp,tpch.supplier,tpch.nation,tpch.region",
         "trino.kafka.nodes"="localhost:9092",
@@ -153,4 +153,3 @@ Trino 没有提供官方编译好的 Connector 插件,所以需要我们自己
         
"trino.bigquery.credentials-file"="/path/to/application_default_credentials.json"
     );
     ```
-
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md
index 4c5611fd5a3..bc0594a455b 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
 | property          | 指定自定义 kafka 参数。功能等同于 kafka shell 中 "--property" 参数。当参数的 
Value 为一个文件时,需要在 Value 前加上关键词:"FILE:"。创建文件可以参考 [CREATE 
FILE](../../../sql-manual/sql-statements/security/CREATE-FILE) 
命令文档。更多支持的自定义参数,可以参考 librdkafka 的官方 
[CONFIGURATION](https://github.com/confluentinc/librdkafka/blob/master/CONFIGURATION.md)
 文档中,client 端的配置项。如:`"property.client.id" = "12345"`、`"property.group.id" = 
"group_id_0"`、`"property.ssl.ca.location" = "FILE:ca.pem"`。 |
 
 通过配置 data_source_properties 中的 kafka property 参数,可以配置安全访问选项。目前 Doris 支持多种 
Kafka 安全协议,如 plaintext(默认)、SSL、PLAIN、Kerberos 等。
@@ -1850,4 +1850,3 @@ FROM KAFKA (
 ## 更多帮助
 
 参考 SQL 手册 [Routine 
Load](../../../sql-manual/sql-statements/data-modification/load-and-export/CREATE-ROUTINE-LOAD)。也可以在客户端命令行下输入
 `HELP ROUTINE LOAD` 获取更多帮助信息。
-
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md
index 79edf02560f..2a811cc0fd5 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md
@@ -50,6 +50,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入      
                      | csv、json               | 异步     |
 | [MySQL Load](./import-way/mysql-load-manual.md)          | 从本地数据导入           
                  | csv                     | 同步     |
 | [Group Commit](./group-commit-manual.md)          | 高频小批量导入                  
           | 根据使用的导入方式而定  | -     |
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/data-query/EXPLAIN.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/data-query/EXPLAIN.md
index be750db3e85..376f050b2c0 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/data-query/EXPLAIN.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/data-query/EXPLAIN.md
@@ -109,7 +109,7 @@ Doris EXPLAIN 语句的结果是一个完整的 PLAN。PLAN 内部是按照执
 | :----------------- | :--------------------------------------- |
 | PARTITION          | 展示当前 Fragment 的数据分布情况           |
 | HAS_COLO_PLAN_NODE | 当前 fragment 中是否存在 colocate 的算子 |
-| Sink               | fragment 数据输出的方式,具体方式先下表  |
+| Sink               | fragment 数据输出的方式,具体方式见下表  |
 
 Sink 方式
 
@@ -398,4 +398,4 @@ TupleDescriptor{id=0, tbl=t1}
 | :------------ | :-------------------------------------- |
 | order by      | 排序的键,以及具体的排序顺序            |
 | TOPN OPT      | 命中 topn runtime filter 优化时有此字段 |
-| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段          |
\ No newline at end of file
+| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段          |
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md
index 4c5611fd5a3..9c7c8ab550e 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个起始消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
 | property          | 指定自定义 kafka 参数。功能等同于 kafka shell 中 "--property" 参数。当参数的 
Value 为一个文件时,需要在 Value 前加上关键词:"FILE:"。创建文件可以参考 [CREATE 
FILE](../../../sql-manual/sql-statements/security/CREATE-FILE) 
命令文档。更多支持的自定义参数,可以参考 librdkafka 的官方 
[CONFIGURATION](https://github.com/confluentinc/librdkafka/blob/master/CONFIGURATION.md)
 文档中,client 端的配置项。如:`"property.client.id" = "12345"`、`"property.group.id" = 
"group_id_0"`、`"property.ssl.ca.location" = "FILE:ca.pem"`。 |
 
 通过配置 data_source_properties 中的 kafka property 参数,可以配置安全访问选项。目前 Doris 支持多种 
Kafka 安全协议,如 plaintext(默认)、SSL、PLAIN、Kerberos 等。
@@ -1850,4 +1850,3 @@ FROM KAFKA (
 ## 更多帮助
 
 参考 SQL 手册 [Routine 
Load](../../../sql-manual/sql-statements/data-modification/load-and-export/CREATE-ROUTINE-LOAD)。也可以在客户端命令行下输入
 `HELP ROUTINE LOAD` 获取更多帮助信息。
-
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md
index 89bcd56ee6b..6b89d50094c 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md
@@ -45,6 +45,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入      
                      | csv、json               | 异步     |
 | [MySQL Load](./import-way/mysql-load-manual.md)          | 从本地数据导入           
                  | csv                     | 同步     |
 | [Group Commit](./group-commit-manual.md)          | 高频小批量导入                  
           | 根据使用的导入方式而定  | -     |
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md
index be750db3e85..376f050b2c0 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/sql-manual/sql-statements/data-query/EXPLAIN.md
@@ -109,7 +109,7 @@ Doris EXPLAIN 语句的结果是一个完整的 PLAN。PLAN 内部是按照执
 | :----------------- | :--------------------------------------- |
 | PARTITION          | 展示当前 Fragment 的数据分布情况           |
 | HAS_COLO_PLAN_NODE | 当前 fragment 中是否存在 colocate 的算子 |
-| Sink               | fragment 数据输出的方式,具体方式先下表  |
+| Sink               | fragment 数据输出的方式,具体方式见下表  |
 
 Sink 方式
 
@@ -398,4 +398,4 @@ TupleDescriptor{id=0, tbl=t1}
 | :------------ | :-------------------------------------- |
 | order by      | 排序的键,以及具体的排序顺序            |
 | TOPN OPT      | 命中 topn runtime filter 优化时有此字段 |
-| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段          |
\ No newline at end of file
+| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段          |
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md
index 4c5611fd5a3..9c7c8ab550e 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个起始消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
 | property          | 指定自定义 kafka 参数。功能等同于 kafka shell 中 "--property" 参数。当参数的 
Value 为一个文件时,需要在 Value 前加上关键词:"FILE:"。创建文件可以参考 [CREATE 
FILE](../../../sql-manual/sql-statements/security/CREATE-FILE) 
命令文档。更多支持的自定义参数,可以参考 librdkafka 的官方 
[CONFIGURATION](https://github.com/confluentinc/librdkafka/blob/master/CONFIGURATION.md)
 文档中,client 端的配置项。如:`"property.client.id" = "12345"`、`"property.group.id" = 
"group_id_0"`、`"property.ssl.ca.location" = "FILE:ca.pem"`。 |
 
 通过配置 data_source_properties 中的 kafka property 参数,可以配置安全访问选项。目前 Doris 支持多种 
Kafka 安全协议,如 plaintext(默认)、SSL、PLAIN、Kerberos 等。
@@ -1850,4 +1850,3 @@ FROM KAFKA (
 ## 更多帮助
 
 参考 SQL 手册 [Routine 
Load](../../../sql-manual/sql-statements/data-modification/load-and-export/CREATE-ROUTINE-LOAD)。也可以在客户端命令行下输入
 `HELP ROUTINE LOAD` 获取更多帮助信息。
-
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md
index cecae72d1e9..560a068337e 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md
@@ -46,6 +46,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入      
                      | csv、json               | 异步     |
 | [MySQL Load](./import-way/mysql-load-manual.md)          | 从本地数据导入           
                  | csv                     | 同步     |
 | [Group Commit](./group-commit-manual.md)          | 高频小批量导入                  
           | 根据使用的导入方式而定  | -     |
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md
index be750db3e85..376f050b2c0 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/sql-manual/sql-statements/data-query/EXPLAIN.md
@@ -109,7 +109,7 @@ Doris EXPLAIN 语句的结果是一个完整的 PLAN。PLAN 内部是按照执
 | :----------------- | :--------------------------------------- |
 | PARTITION          | 展示当前 Fragment 的数据分布情况           |
 | HAS_COLO_PLAN_NODE | 当前 fragment 中是否存在 colocate 的算子 |
-| Sink               | fragment 数据输出的方式,具体方式先下表  |
+| Sink               | fragment 数据输出的方式,具体方式见下表  |
 
 Sink 方式
 
@@ -398,4 +398,4 @@ TupleDescriptor{id=0, tbl=t1}
 | :------------ | :-------------------------------------- |
 | order by      | 排序的键,以及具体的排序顺序            |
 | TOPN OPT      | 命中 topn runtime filter 优化时有此字段 |
-| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段          |
\ No newline at end of file
+| OPT TWO PHASE | 命中 topn 延迟物化时,有此字段          |


---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]

Reply via email to