Copilot commented on code in PR #3378:
URL: https://github.com/apache/doris-website/pull/3378#discussion_r2789841489


##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/load-manual.md:
##########
@@ -45,6 +45,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 kafka 实时导入      
                      | csv、json               | 异步     |

Review Comment:
   该表格行里产品名写成了小写“kafka”,但同页其它位置使用的是“Kafka”(如上文“Flink、Kafka”)。建议统一为“Kafka”。
   ```suggestion
   | [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入    
                        | csv、json               | 异步     |
   ```



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.x/data-operate/import/import-way/routine-load-manual.md:
##########
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |

Review Comment:
   该段落里写的是“可以指定多个其实消费点”,这里“其实”应为“起始”,与前文“起始消费点(offset)”保持一致,避免歧义。



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/import-way/routine-load-manual.md:
##########
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |

Review Comment:
   该段落里写的是“可以指定多个其实消费点”,这里“其实”应为“起始”,与前文“起始消费点(offset)”保持一致,避免歧义。



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/load-manual.md:
##########
@@ -46,6 +46,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 kafka 实时导入      
                      | csv、json               | 异步     |

Review Comment:
   该表格行里产品名写成了小写“kafka”,但同页其它位置使用的是“Kafka”(如上文“Flink、Kafka”)。建议统一为“Kafka”。
   ```suggestion
   | [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入    
                        | csv、json               | 异步     |
   ```



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-4.x/data-operate/import/import-way/routine-load-manual.md:
##########
@@ -441,7 +441,7 @@ data_source_properties 子句具体参数选项如下:
 | kafka_broker_list | 指定 Kafka 的 broker 连接信息。格式为 `<kafka_broker_ip>:<kafka 
port>`。多个 broker 之间以逗号分隔。例如在 Kafka Broker 中默认端口号为 9092,可以使用以下命令指定 Broker 
List:`"kafka_broker_list" = "<broker1_ip>:9092,<broker2_ip>:9092"` |
 | kafka_topic       | 指定要订阅的 Kafka 的 topic。一个导入作业仅能消费一个 Kafka Topic。 |
 | kafka_partitions  | 指定需要订阅的 Kafka Partition。如果不指定,则默认消费所有分区。 |
-| kafka_offsets     | 待消费的 Kakfa Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |
+| kafka_offsets     | 待消费的 Kafka Partition 
中起始消费点(offset)。如果指定时间,则会从大于等于该时间的最近一个 offset 处开始消费。offset 可以指定从大于等于 0 的具体 
offset,也可以使用以下格式:<p>- OFFSET_BEGINNING: 从有数据的位置开始订阅。</p> <p>- OFFSET_END: 
从末尾开始订阅。</p> <p>- 时间格式,如:"2021-05-22 11:00:00"</p> <p>如果没有指定,则默认从 `OFFSET_END` 
开始订阅 topic 下的所有 partition。</p> <p>可以指定多个其实消费点,使用逗号分隔,如:`"kafka_offsets" = 
"101,0,OFFSET_BEGINNING,OFFSET_END"`或者`"kafka_offsets" = "2021-05-22 
11:00:00,2021-05-22 11:00:00"`</p> <p>注意,时间格式不能和 OFFSET 格式混用。</p> |

Review Comment:
   该段落里写的是“可以指定多个其实消费点”,这里“其实”应为“起始”,与前文“起始消费点(offset)”保持一致,避免歧义。



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/data-operate/import/load-manual.md:
##########
@@ -50,6 +50,6 @@ Doris 的导入主要涉及数据源、数据格式、导入方式、错误数
 | [Broker Load](./import-way/broker-load-manual.md)        | 从对象存储、HDFS 等导入    
                 | csv、json、parquet、orc | 异步     |
 | [INSERT INTO VALUES](./import-way/insert-into-manual.md) | 通过 JDBC 等接口导入 | 
SQL                     | 同步     |
 | [INSERT INTO SELECT](./import-way/insert-into-manual.md) | 
可以导入外部表或者对象存储、HDFS 中的文件      | SQL                     | 同步     |
-| [Routine Load](./import-way/routine-load-manual.md)      | 从 kakfa 实时导入      
                      | csv、json               | 异步     |
+| [Routine Load](./import-way/routine-load-manual.md)      | 从 kafka 实时导入      
                      | csv、json               | 异步     |

Review Comment:
   该表格行里产品名写成了小写“kafka”,但同页其它位置使用的是“Kafka”(如上文“Flink、Kafka”)。建议统一为“Kafka”。
   ```suggestion
   | [Routine Load](./import-way/routine-load-manual.md)      | 从 Kafka 实时导入    
                        | csv、json               | 异步     |
   ```



-- 
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

To unsubscribe, e-mail: [email protected]

For queries about this service, please contact Infrastructure at:
[email protected]


---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]

Reply via email to