Hisoka-X commented on code in PR #9318: URL: https://github.com/apache/seatunnel/pull/9318#discussion_r2095521810
##########
docs/en/connector-v2/source/Kafka.md:
##########
@@ -52,6 +52,7 @@ They can be downloaded via install-plugin.sh or from the
Maven central repositor
| start_mode |
StartMode[earliest],[group_offsets],[latest],[specific_offsets],[timestamp] |
No | group_offsets | The initial consumption pattern of
consumers.
|
| start_mode.offsets | Config
| No | - | The
offset required for consumption mode to be specific_offsets.
|
| start_mode.timestamp | Long
| No | - | The
time required for consumption mode to be "timestamp".
|
+| start_mode.end_timestamp | Long
| No | - |
The end time required for consumption mode to be "timestamp",in batch mode
Review Comment:
```suggestion
| start_mode.end_timestamp | Long
| No | - |
The end time required for consumption mode to be "timestamp" in batch mode
```
##########
docs/zh/connector-v2/source/Kafka.md:
##########
@@ -34,30 +34,31 @@ import ChangeLog from '../changelog/connector-kafka.md';
## 源选项
-| 名称 | 类型 |
是否必填 | 默认值 | 描述
|
-|-------------------------------------|-------------------------------------|------|--------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-| topic | String |
是 | - | 使用表作为数据源时要读取数据的主题名称。它也支持通过逗号分隔的多个主题列表,例如
'topic-1,topic-2'。
|
-| table_list | Map |
否 | - | 主题列表配置,你可以同时配置一个 `table_list` 和一个 `topic`。
|
-| bootstrap.servers | String |
是 | - | 逗号分隔的 Kafka brokers 列表。
|
-| pattern | Boolean |
否 | false | 如果 `pattern` 设置为 `true`,则会使用指定的正则表达式匹配并订阅主题。
|
-| consumer.group | String |
否 | SeaTunnel-Consumer-Group | `Kafka 消费者组 ID`,用于区分不同的消费者组。
|
-| commit_on_checkpoint | Boolean |
否 | true | 如果为 true,消费者的偏移量将会定期在后台提交。
|
-| poll.timeout | Long |
否 | 10000 | kafka主动拉取时间间隔(毫秒)。
|
-| kafka.config | Map |
否 | - | 除了上述必要参数外,用户还可以指定多个非强制的消费者客户端参数,覆盖 [Kafka
官方文档](https://kafka.apache.org/documentation.html#consumerconfigs) 中指定的所有消费者参数。
|
-| schema | Config |
否 | - | 数据结构,包括字段名称和字段类型。
|
-| format | String |
否 | json | 数据格式。默认格式为 json。可选格式包括 text, canal_json,
debezium_json, ogg_json, maxwell_json, avro , protobuf和native。默认字段分隔符为 ",
"。如果自定义分隔符,添加 "field_delimiter" 选项。如果使用 canal 格式,请参考
[canal-json](../formats/canal-json.md) 了解详细信息。如果使用 debezium 格式,请参考
[debezium-json](../formats/debezium-json.md)。一些Format的详细信息请参考
[formats](../formats) |
-| format_error_handle_way | String |
否 | fail | 数据格式错误的处理方式。默认值为 fail,可选值为 fail 和 skip。当选择
fail 时,数据格式错误将阻塞并抛出异常。当选择 skip 时,数据格式错误将跳过此行数据。
|
-| debezium_record_table_filter | Config |
否 | - | 用于过滤 debezium 格式的数据,仅当格式设置为 `debezium_json`
时使用。请参阅下面的 `debezium_record_table_filter`
|
-| field_delimiter | String |
否 | , | 自定义数据格式的字段分隔符。
|
-| start_mode | StartMode[earliest],[group_offsets] |
否 | group_offsets | 消费者的初始消费模式。
|
-| start_mode.offsets | Config |
否 | - | 用于 specific_offsets 消费模式的偏移量。
|
-| start_mode.timestamp | Long |
否 | - | 用于 "timestamp" 消费模式的时间。
|
-| partition-discovery.interval-millis | Long |
否 | -1 | 动态发现主题和分区的间隔时间。
|
-| common-options | |
否 | - | 源插件的常见参数,详情请参考 [Source Common
Options](../source-common-options.md)。
|
-| protobuf_message_name | String |
否 | - | 当格式设置为 protobuf 时有效,指定消息名称。
|
-| protobuf_schema | String |
否 | - | 当格式设置为 protobuf 时有效,指定 Schema 定义。
|
-| reader_cache_queue_size | Integer |
否 | 1024 |
Reader分片缓存队列,用于缓存分片对应的数据。占用大小取决于每个reader得到的分片量,而不是每个分片的数据量。
|
-| is_native | Boolean |
No | false | 支持保留record的源信息。
|
+| 名称 | 类型 |
是否必填 | 默认值 | 描述
|
+|-------------------------------------|-------------------------------------|------|------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| topic | String |
是 | - | 使用表作为数据源时要读取数据的主题名称。它也支持通过逗号分隔的多个主题列表,例如
'topic-1,topic-2'。
|
+| table_list | Map |
否 | - | 主题列表配置,你可以同时配置一个 `table_list` 和一个
`topic`。
|
+| bootstrap.servers | String |
是 | - | 逗号分隔的 Kafka brokers 列表。
|
+| pattern | Boolean |
否 | false | 如果 `pattern` 设置为
`true`,则会使用指定的正则表达式匹配并订阅主题。
|
+| consumer.group | String |
否 | SeaTunnel-Consumer-Group | `Kafka 消费者组 ID`,用于区分不同的消费者组。
|
+| commit_on_checkpoint | Boolean |
否 | true | 如果为 true,消费者的偏移量将会定期在后台提交。
|
+| poll.timeout | Long |
否 | 10000 | kafka主动拉取时间间隔(毫秒)。
|
+| kafka.config | Map |
否 | - | 除了上述必要参数外,用户还可以指定多个非强制的消费者客户端参数,覆盖 [Kafka
官方文档](https://kafka.apache.org/documentation.html#consumerconfigs) 中指定的所有消费者参数。
|
+| schema | Config |
否 | - | 数据结构,包括字段名称和字段类型。
|
+| format | String |
否 | json | 数据格式。默认格式为 json。可选格式包括 text, canal_json,
debezium_json, ogg_json, maxwell_json, avro , protobuf和native。默认字段分隔符为 ",
"。如果自定义分隔符,添加 "field_delimiter" 选项。如果使用 canal 格式,请参考
[canal-json](../formats/canal-json.md) 了解详细信息。如果使用 debezium 格式,请参考
[debezium-json](../formats/debezium-json.md)。一些Format的详细信息请参考
[formats](../formats) |
+| format_error_handle_way | String |
否 | fail | 数据格式错误的处理方式。默认值为 fail,可选值为 fail 和
skip。当选择 fail 时,数据格式错误将阻塞并抛出异常。当选择 skip 时,数据格式错误将跳过此行数据。
|
+| debezium_record_table_filter | Config |
否 | - | 用于过滤 debezium 格式的数据,仅当格式设置为
`debezium_json` 时使用。请参阅下面的 `debezium_record_table_filter`
|
+| field_delimiter | String |
否 | , | 自定义数据格式的字段分隔符。
|
+| start_mode | StartMode[earliest],[group_offsets] |
否 | group_offsets | 消费者的初始消费模式。
|
+| start_mode.offsets | Config |
否 | - | 用于 specific_offsets 消费模式的偏移量。
|
+| start_mode.timestamp | Long |
否 | - | 用于 "timestamp" 消费模式的时间。
|
+| start_mode.end_timestamp | Long |
否 | - | 用于 "timestamp" 消费模式的结束时间,在批模式下
|
Review Comment:
```suggestion
| start_mode.end_timestamp | Long
| 否 | - | 用于 "timestamp" 消费模式的结束时间,只支持批模式
|
```
--
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.
To unsubscribe, e-mail: [email protected]
For queries about this service, please contact Infrastructure at:
[email protected]
