This is an automated email from the ASF dual-hosted git repository. haonan pushed a commit to branch main in repository https://gitbox.apache.org/repos/asf/iotdb-docs.git
The following commit(s) were added to refs/heads/main by this push:
new fb7444f Specify special parameter version (#298)
fb7444f is described below
commit fb7444f177a325d95e0d177f33a0bd57040feb2b
Author: Summer <[email protected]>
AuthorDate: Mon Aug 5 14:34:30 2024 +0800
Specify special parameter version (#298)
Co-authored-by: 2b3c511 <[email protected]>
---
.../Master/Tools-System/Data-Import-Export-Tool.md | 26 +++++-----
.../latest/Tools-System/Data-Import-Export-Tool.md | 26 +++++-----
.../Master/Tools-System/Data-Import-Export-Tool.md | 58 +++++++++++-----------
.../latest/Tools-System/Data-Import-Export-Tool.md | 30 +++++------
4 files changed, 70 insertions(+), 70 deletions(-)
diff --git a/src/UserGuide/Master/Tools-System/Data-Import-Export-Tool.md
b/src/UserGuide/Master/Tools-System/Data-Import-Export-Tool.md
index 6588513..84ee41b 100644
--- a/src/UserGuide/Master/Tools-System/Data-Import-Export-Tool.md
+++ b/src/UserGuide/Master/Tools-System/Data-Import-Export-Tool.md
@@ -43,20 +43,20 @@ IoTDB provides data import and export scripts
(tools/export-data, tools/import-d
Parameter Introduction:
-| Parameter | Definition
| Required | Default
|
-|:-------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------|:-------------------------|
-| -h | Database IP address
| No | 127.0.0.1
|
-| -p | Database port
| No | 6667
|
-| -u | Database connection username
| No | root
|
-| -pw | Database connection password
| No | root
|
-| -t | Output path for the exported CSV or SQL file
| Yes |
|
-| -datatype | Whether to print the corresponding data type behind the time
series in the CSV file header, options are true or false
| No | true
|
+| Parameter | Definition
| Required | Default
|
+|:-------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------|:-------------------------|
+| -h | Database IP address
| No | 127.0.0.1
|
+| -p | Database port
| No | 6667
|
+| -u | Database connection username
| No | root
|
+| -pw | Database connection password
| No | root
|
+| -t | Output path for the exported CSV or SQL file(The parameter
for V1.3.2 is `-td`)
| Yes |
|
+| -datatype | Whether to print the corresponding data type behind the time
series in the CSV file header, options are true or false
| No | true
|
| -q | Directly specify the query statement to be executed in the
command (currently only supports some statements, see the table below for
details). <br/>Note: -q and -s parameters must be filled in one, and -q takes
effect if both are filled. For detailed examples of supported SQL statements,
please refer to the "SQL Statement Support Details" below.
| No |
|
| -s | Specify an SQL file, which may contain one or more SQL
statements. If there are multiple SQL statements, they should be separated by
newlines (returns). Each SQL statement corresponds to one or more output CSV or
SQL files. <br/>Note: -q and -s parameters must be filled in one, and -q takes
effect if both are filled. For detailed examples of supported SQL statements,
please refer to the "SQL Statement Support Details" below. | No |
|
-| -type | Specify the type of exported file, options are csv or sql
| No | csv
|
+| -type | Specify the type of exported file, options are csv or sql
| No | csv
|
| -tf | Specify the time format. The time format must comply with the
[ISO 8601](https://calendars.wikia.org/wiki/ISO_8601) standard or timestamp.
<br/>Note: Only effective when -type is csv
| No | yyyy-MM-dd
HH:mm:ss.SSSz |
-| -lpf | Specify the maximum number of lines for the exported dump
file
| No | 10000
|
-| -timeout | Specify the timeout time for session queries in milliseconds
| No | -1
|
+| -lpf | Specify the maximum number of lines for the exported dump
file(The parameter for V1.3.2 is `-linesPerFile`)
| No | 10000
|
+| -timeout | Specify the timeout time for session queries in milliseconds
| No | -1
|
SQL Statement Support Rules:
@@ -231,12 +231,12 @@ Parameter Introduction:
| -p
| Database port
[...]
| -u
| Database connection username
[...]
| -pw
| Database connection password
[...]
-| -s
| Specify the data you want to import, here you can specify a file or folder.
If a folder is specified, all files with the suffix CSV or SQL in the folder
will be imported in bulk.
[...]
+| -s
| Specify the data you want to import, here you can specify a file or folder.
If a folder is specified, all files with the suffix CSV or SQL in the folder
will be imported in bulk.(The parameter for V1.3.2 is `-f`)
[...]
| -fd
| Specify the directory to store the failed SQL files. If this parameter is not
specified, the failed files will be saved to the directory of the source data.
<br/>Note: For unsupported SQL, illegal SQL, and failed SQL, they will be
placed in the failed file in the failed directory (default file name is.
failed)
[...]
| -aligned
| Specify whether to use the 'aligned' interface, with options of true or
false. This parameter only takes effect when the imported file is a CSV file
[...]
| -batch
| Used to specify the number of points to be inserted for each batch of data
(minimum value is 1, maximum value is Integer.MAX_VALUE). If the program
reports' org.apache.hrift.transport ' If TTransportException: Frame size larger
than protect max size is incorrect, you can adjust this parameter
appropriately.
[...]
| -tp
| Specify time precision, optional values include 'ms' (milliseconds),' ns'
(nanoseconds), 'us' (microseconds)
[...]
-| -lpf
| Specify the number of lines to write data to each failed import file
[...]
+| -lpf
| Specify the number of lines to write data to each failed import file(The
parameter for V1.3.2 is `-linesPerFailedFile`)
[...]
| -typeInfer
| Used to specify type inference rules. For
Example:<srcTsDataType1=dstTsDataType1,srcTsDataType2=dstTsDataType2,...>.<br/>Note:
Used to specify type inference rules.`srcTsDataType` include
`boolean`,`int`,`long`,`float`,`double`,`NaN`.`dstTsDataType` include
`boolean`,`int`,`long`,`float`,`double`,`text`.when`srcTsDataType`is`boolean`,
`dstTsDataType`can only be`boolean`or`text`.when`srcTsDataType`is`NaN`, `ds
[...]
### Running Examples
diff --git a/src/UserGuide/latest/Tools-System/Data-Import-Export-Tool.md
b/src/UserGuide/latest/Tools-System/Data-Import-Export-Tool.md
index 6588513..3d082fe 100644
--- a/src/UserGuide/latest/Tools-System/Data-Import-Export-Tool.md
+++ b/src/UserGuide/latest/Tools-System/Data-Import-Export-Tool.md
@@ -43,20 +43,20 @@ IoTDB provides data import and export scripts
(tools/export-data, tools/import-d
Parameter Introduction:
-| Parameter | Definition
| Required | Default
|
-|:-------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------|:-------------------------|
-| -h | Database IP address
| No | 127.0.0.1
|
-| -p | Database port
| No | 6667
|
-| -u | Database connection username
| No | root
|
-| -pw | Database connection password
| No | root
|
-| -t | Output path for the exported CSV or SQL file
| Yes |
|
-| -datatype | Whether to print the corresponding data type behind the time
series in the CSV file header, options are true or false
| No | true
|
+| Parameter | Definition
| Required | Default
|
+|:-------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------|:-------------------------|
+| -h | Database IP address
| No | 127.0.0.1
|
+| -p | Database port
| No | 6667
|
+| -u | Database connection username
| No | root
|
+| -pw | Database connection password
| No | root
|
+| -t | Output path for the exported CSV or SQL file(The parameter
for V1.3.2 is `-td`)
| Yes |
|
+| -datatype | Whether to print the corresponding data type behind the time
series in the CSV file header, options are true or false
| No | true
|
| -q | Directly specify the query statement to be executed in the
command (currently only supports some statements, see the table below for
details). <br/>Note: -q and -s parameters must be filled in one, and -q takes
effect if both are filled. For detailed examples of supported SQL statements,
please refer to the "SQL Statement Support Details" below.
| No |
|
| -s | Specify an SQL file, which may contain one or more SQL
statements. If there are multiple SQL statements, they should be separated by
newlines (returns). Each SQL statement corresponds to one or more output CSV or
SQL files. <br/>Note: -q and -s parameters must be filled in one, and -q takes
effect if both are filled. For detailed examples of supported SQL statements,
please refer to the "SQL Statement Support Details" below. | No |
|
-| -type | Specify the type of exported file, options are csv or sql
| No | csv
|
+| -type | Specify the type of exported file, options are csv or sql
| No | csv
|
| -tf | Specify the time format. The time format must comply with the
[ISO 8601](https://calendars.wikia.org/wiki/ISO_8601) standard or timestamp.
<br/>Note: Only effective when -type is csv
| No | yyyy-MM-dd
HH:mm:ss.SSSz |
-| -lpf | Specify the maximum number of lines for the exported dump
file
| No | 10000
|
-| -timeout | Specify the timeout time for session queries in milliseconds
| No | -1
|
+| -lpf | Specify the maximum number of lines for the exported dump
file(The parameter for V1.3.2 is `-linesPerFile`)
| No | 10000
|
+| -timeout | Specify the timeout time for session queries in milliseconds
| No | -1
|
SQL Statement Support Rules:
@@ -231,12 +231,12 @@ Parameter Introduction:
| -p
| Database port
[...]
| -u
| Database connection username
[...]
| -pw
| Database connection password
[...]
-| -s
| Specify the data you want to import, here you can specify a file or folder.
If a folder is specified, all files with the suffix CSV or SQL in the folder
will be imported in bulk.
[...]
+| -s
| Specify the data you want to import, here you can specify a file or folder.
If a folder is specified, all files with the suffix CSV or SQL in the folder
will be imported in bulk.(The parameter for V1.3.2 is `-f`)
[...]
| -fd
| Specify the directory to store the failed SQL files. If this parameter is not
specified, the failed files will be saved to the directory of the source data.
<br/>Note: For unsupported SQL, illegal SQL, and failed SQL, they will be
placed in the failed file in the failed directory (default file name is.
failed)
[...]
| -aligned
| Specify whether to use the 'aligned' interface, with options of true or
false. This parameter only takes effect when the imported file is a CSV file
[...]
| -batch
| Used to specify the number of points to be inserted for each batch of data
(minimum value is 1, maximum value is Integer.MAX_VALUE). If the program
reports' org.apache.hrift.transport ' If TTransportException: Frame size larger
than protect max size is incorrect, you can adjust this parameter
appropriately.
[...]
| -tp
| Specify time precision, optional values include 'ms' (milliseconds),' ns'
(nanoseconds), 'us' (microseconds)
[...]
-| -lpf
| Specify the number of lines to write data to each failed import file
[...]
+| -lpf
| Specify the number of lines to write data to each failed import file(The
parameter for V1.3.2 is `-linesPerFailedFile`)
[...]
| -typeInfer
| Used to specify type inference rules. For
Example:<srcTsDataType1=dstTsDataType1,srcTsDataType2=dstTsDataType2,...>.<br/>Note:
Used to specify type inference rules.`srcTsDataType` include
`boolean`,`int`,`long`,`float`,`double`,`NaN`.`dstTsDataType` include
`boolean`,`int`,`long`,`float`,`double`,`text`.when`srcTsDataType`is`boolean`,
`dstTsDataType`can only be`boolean`or`text`.when`srcTsDataType`is`NaN`, `ds
[...]
### Running Examples
diff --git a/src/zh/UserGuide/Master/Tools-System/Data-Import-Export-Tool.md
b/src/zh/UserGuide/Master/Tools-System/Data-Import-Export-Tool.md
index b147626..34d6830 100644
--- a/src/zh/UserGuide/Master/Tools-System/Data-Import-Export-Tool.md
+++ b/src/zh/UserGuide/Master/Tools-System/Data-Import-Export-Tool.md
@@ -42,22 +42,22 @@ IoTDB 提供了数据导入导出脚本(tools/export-data、tools/import-data
参数介绍:
-| 参数 | 定义
| 是否必填 | 默认 |
-| :--------
|:-------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------|
:----------------------- |
-| -h | 数据库IP地址
| 否 | 127.0.0.1 |
-| -p | 数据库端口
| 否 | 6667 |
-| -u | 数据库连接用户名
| 否 | root |
-| -pw | 数据库连接密码
| 否 | root |
-| -t | 导出的 CSV 或 SQL 文件的输出路径
| 是 | |
-| -datatype | 是否在 CSV 文件的 header 中时间序列的后面打印出对应的数据类型,选项为 true 或者 false
| 否 | true |
-| -q | 在命令中直接指定想要执行的查询语句(目前仅支持部分语句,详细明细见下表)<br/>说明:-q 与 -s 参数必填其一,同时填写则
-q 生效。详细支持的 SQL 语句示例,请参考下方“SQL语句支持明细”
| 否 | |
-| -s | 指定 SQL 文件,该文件可包含一条或多条 SQL 语句。如果包含多条 SQL 语句,语句之间应该用换行(回车)进行分割。每一条
SQL 语句对应一个或多个输出的CSV或 SQL 文件<br/>说明:-q 与 -s 参数必填其一,同时填写则-q生效。详细支持的 SQL
语句示例,请参考下方“SQL语句支持规则” | 否 | |
-| -type | 指定导出的文件类型,选项为 csv 或者 sql
| 否 | csv |
-| -tf | 指定时间格式。时间格式必须遵守[ISO
8601](https://calendars.wikia.org/wiki/ISO_8601)标准,或时间戳(`timestamp`)<br/>说明:只在
-type 为 csv 时生效 | 否 |
yyyy-MM-dd HH:mm:ss.SSSz |
-| -lpf | 指定导出的 dump 文件最大行数
| 否 | 10000 |
-| -timeout | 指定 session 查询时的超时时间,单位为ms
| 否 | -1 |
-
- SQL 语句支持规则:
+| 参数 | 定义
| 是否必填 | 默认 |
+| :--------
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------|
:----------------------- |
+| -h | 数据库IP地址
| 否 | 127.0.0.1 |
+| -p | 数据库端口
| 否 | 6667 |
+| -u | 数据库连接用户名
| 否 | root |
+| -pw | 数据库连接密码
| 否 | root |
+| -t | 导出的 CSV 或 SQL 文件的输出路径(V1.3.2版本参数是`-td`)
| 是 | |
+| -datatype | 是否在 CSV 文件的 header 中时间序列的后面打印出对应的数据类型,选项为 true 或者 false
| 否 | true |
+| -q | 在命令中直接指定想要执行的查询语句(目前仅支持部分语句,详细明细见下表)<br/>说明:-q 与 -s 参数必填其一,同时填写则
-q 生效。详细支持的 SQL 语句示例,请参考下方“SQL语句支持明细”
| 否 | |
+| -s | 指定 SQL 文件,该文件可包含一条或多条 SQL 语句。如果包含多条 SQL 语句,语句之间应该用换行(回车)进行分割。每一条
SQL 语句对应一个或多个输出的CSV或 SQL 文件<br/>说明:-q 与 -s 参数必填其一,同时填写则-q生效。详细支持的 SQL
语句示例,请参考下方“SQL语句支持规则” | 否 |
|
+| -type | 指定导出的文件类型,选项为 csv 或者 sql
| 否 | csv |
+| -tf | 指定时间格式。时间格式必须遵守[ISO
8601](https://calendars.wikia.org/wiki/ISO_8601)标准,或时间戳(`timestamp`)<br/>说明:只在
-type 为 csv 时生效
| 否 | yyyy-MM-dd HH:mm:ss.SSSz |
+| -lpf | 指定导出的 dump 文件最大行数(V1.3.2版本参数是`-linesPerFile`)
| 否 | 10000 |
+| -timeout | 指定 session 查询时的超时时间,单位为ms
| 否 | -1 |
+
+SQL 语句支持规则:
1. 只支持查询语句,非查询语句(如:元数据管理、系统管理等语句)不支持。对于不支持的 SQL ,程序会自动跳过,同时输出错误信息。
2. 查询语句中目前版本仅支持原始数据的导出,如果有使用 group by、聚合函数、udf、操作运算符等则不支持导出为
SQL。原始数据导出时请注意,若导出多个设备数据,请使用 align by device 语句。详细示例如下:
@@ -225,19 +225,19 @@ CREATE TIMESERIES root.fit.p.s1 WITH
DATATYPE=INT32,ENCODING=RLE;
参数介绍:
-| 参数 | 定义
| 是否必填 | 默认 [...]
-|:-------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
:------- | : [...]
-| -h | 数据库 IP 地址
| 否 | 12 [...]
-| -p | 数据库端口
| 否 | 66 [...]
-| -u | 数据库连接用户名
| 否 | ro [...]
-| -pw | 数据库连接密码
| 否 | ro [...]
-| -s | 指定想要导入的数据,这里可以指定文件或者文件夹。如果指定的是文件夹,将会把文件夹中所有的后缀为 csv 或者 sql
的文件进行批量导入。
| 是 | [...]
-| -fd | 指定存放失败 SQL 文件的目录,如果未指定这个参数,失败的文件将会被保存到源数据的目录中。<br/>说明:对于不支持的
SQL ,不合法的 SQL ,执行失败的 SQL 都会放到失败目录下的失败文件里(默认为 文件名.failed)
| 否 | 源文 [...]
-| -aligned | 指定是否使用`aligned`接口,选项为 true 或者 false
<br/>说明:这个参数只在导入文件为csv文件时生效
| 否 | fa [...]
-| -batch | 用于指定每一批插入的数据的点数(最小值为1,最大值为
Integer.*MAX_VALUE*)。如果程序报了`org.apache.thrift.transport.TTransportException:
Frame size larger than protect max size`这个错的话,就可以适当的调低这个参数。
| 否 | `1 [...]
-| -tp | 指定时间精度,可选值包括`ms`(毫秒),`ns`(纳秒),`us`(微秒)
| 否 | `m [...]
-| -lpf | 指定每个导入失败文件写入数据的行数
| 否 | 10 [...]
-| -typeInfer |
用于指定类型推断规则,如<srcTsDataType1=dstTsDataType1,srcTsDataType2=dstTsDataType2,...>。<br/>说明:用于指定类型推断规则.`srcTsDataType`
包括 `boolean`,`int`,`long`,`float`,`double`,`NaN`.`dstTsDataType` 包括
`boolean`,`int`,`long`,`float`,`double`,`text`.当`srcTsDataType`为`boolean`,
`dstTsDataType`只能为`boolean`或`text`.当`srcTsDataType`为`NaN`,
`dstTsDataType`只能为`float`, `double`或`text`.当`srcTsDataType`为数值类型,
`dstTsDataType`的精度需要高于`srcTsDataType`.例如:`-typeInfer boolean=text,float=double`
| 否 | [...]
+| 参数 | 定义
[...]
+|:-------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
[...]
+| -h | 数据库 IP 地址
[...]
+| -p | 数据库端口
[...]
+| -u | 数据库连接用户名
[...]
+| -pw | 数据库连接密码
[...]
+| -s | 指定想要导入的数据,这里可以指定文件或者文件夹。如果指定的是文件夹,将会把文件夹中所有的后缀为 csv 或者 sql
的文件进行批量导入(V1.3.2版本参数是`-f`)
[...]
+| -fd | 指定存放失败 SQL 文件的目录,如果未指定这个参数,失败的文件将会被保存到源数据的目录中。<br/>说明:对于不支持的
SQL ,不合法的 SQL ,执行失败的 SQL 都会放到失败目录下的失败文件里(默认为 文件名.failed)
[...]
+| -aligned | 指定是否使用`aligned`接口,选项为 true 或者 false
<br/>说明:这个参数只在导入文件为csv文件时生效
[...]
+| -batch | 用于指定每一批插入的数据的点数(最小值为1,最大值为
Integer.*MAX_VALUE*)。如果程序报了`org.apache.thrift.transport.TTransportException:
Frame size larger than protect max size`这个错的话,就可以适当的调低这个参数。
[...]
+| -tp | 指定时间精度,可选值包括`ms`(毫秒),`ns`(纳秒),`us`(微秒)
[...]
+| -lpf | 指定每个导入失败文件写入数据的行数(V1.3.2版本参数是`-linesPerFailedFile`)
[...]
+| -typeInfer |
用于指定类型推断规则,如<srcTsDataType1=dstTsDataType1,srcTsDataType2=dstTsDataType2,...>。<br/>说明:用于指定类型推断规则.`srcTsDataType`
包括 `boolean`,`int`,`long`,`float`,`double`,`NaN`.`dstTsDataType` 包括
`boolean`,`int`,`long`,`float`,`double`,`text`.当`srcTsDataType`为`boolean`,
`dstTsDataType`只能为`boolean`或`text`.当`srcTsDataType`为`NaN`,
`dstTsDataType`只能为`float`, `double`或`text`.当`srcTsDataType`为数值类型,
`dstTsDataType`的精度需要高于`srcTsDataType`.例如:`-typeInfer boolean=text,float=double`
[...]
### 运行示例
diff --git a/src/zh/UserGuide/latest/Tools-System/Data-Import-Export-Tool.md
b/src/zh/UserGuide/latest/Tools-System/Data-Import-Export-Tool.md
index 3147f4c..47a8857 100644
--- a/src/zh/UserGuide/latest/Tools-System/Data-Import-Export-Tool.md
+++ b/src/zh/UserGuide/latest/Tools-System/Data-Import-Export-Tool.md
@@ -48,13 +48,13 @@ IoTDB 提供了数据导入导出脚本(tools/export-data、tools/import-data
| -p | 数据库端口
| 否 | 6667 |
| -u | 数据库连接用户名
| 否 | root |
| -pw | 数据库连接密码
| 否 | root |
-| -t | 导出的 CSV 或 SQL 文件的输出路径
| 是 | |
+| -t | 导出的 CSV 或 SQL 文件的输出路径(V1.3.2版本参数是`-td`)
| 是 | |
| -datatype | 是否在 CSV 文件的 header 中时间序列的后面打印出对应的数据类型,选项为 true 或者 false
| 否 | true |
| -q | 在命令中直接指定想要执行的查询语句(目前仅支持部分语句,详细明细见下表)<br/>说明:-q 与 -s 参数必填其一,同时填写则
-q 生效。详细支持的 SQL 语句示例,请参考下方“SQL语句支持明细”
| 否 | |
| -s | 指定 SQL 文件,该文件可包含一条或多条 SQL 语句。如果包含多条 SQL 语句,语句之间应该用换行(回车)进行分割。每一条
SQL 语句对应一个或多个输出的CSV或 SQL 文件<br/>说明:-q 与 -s 参数必填其一,同时填写则-q生效。详细支持的 SQL
语句示例,请参考下方“SQL语句支持规则” | 否 | |
| -type | 指定导出的文件类型,选项为 csv 或者 sql
| 否 | csv |
| -tf | 指定时间格式。时间格式必须遵守[ISO
8601](https://calendars.wikia.org/wiki/ISO_8601)标准,或时间戳(`timestamp`)<br/>说明:只在
-type 为 csv 时生效 | 否 |
yyyy-MM-dd HH:mm:ss.SSSz |
-| -lpf | 指定导出的 dump 文件最大行数
| 否 | 10000 |
+| -lpf | 指定导出的 dump 文件最大行数(V1.3.2版本参数是`-linesPerFile`)
| 否 | 10000 |
| -timeout | 指定 session 查询时的超时时间,单位为ms
| 否 | -1 |
SQL 语句支持规则:
@@ -225,19 +225,19 @@ CREATE TIMESERIES root.fit.p.s1 WITH
DATATYPE=INT32,ENCODING=RLE;
参数介绍:
-| 参数 | 定义
| 是否必填 | 默认 [...]
-|:-------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
:------- | : [...]
-| -h | 数据库 IP 地址
| 否 | 12 [...]
-| -p | 数据库端口
| 否 | 66 [...]
-| -u | 数据库连接用户名
| 否 | ro [...]
-| -pw | 数据库连接密码
| 否 | ro [...]
-| -s | 指定想要导入的数据,这里可以指定文件或者文件夹。如果指定的是文件夹,将会把文件夹中所有的后缀为 csv 或者 sql
的文件进行批量导入。
| 是 | [...]
-| -fd | 指定存放失败 SQL 文件的目录,如果未指定这个参数,失败的文件将会被保存到源数据的目录中。<br/>说明:对于不支持的
SQL ,不合法的 SQL ,执行失败的 SQL 都会放到失败目录下的失败文件里(默认为 文件名.failed)
| 否 | 源文 [...]
-| -aligned | 指定是否使用`aligned`接口,选项为 true 或者 false
<br/>说明:这个参数只在导入文件为csv文件时生效
| 否 | fa [...]
-| -batch | 用于指定每一批插入的数据的点数(最小值为1,最大值为
Integer.*MAX_VALUE*)。如果程序报了`org.apache.thrift.transport.TTransportException:
Frame size larger than protect max size`这个错的话,就可以适当的调低这个参数。
| 否 | `1 [...]
-| -tp | 指定时间精度,可选值包括`ms`(毫秒),`ns`(纳秒),`us`(微秒)
| 否 | `m [...]
-| -lpf | 指定每个导入失败文件写入数据的行数
| 否 | 10 [...]
-| -typeInfer |
用于指定类型推断规则,如<srcTsDataType1=dstTsDataType1,srcTsDataType2=dstTsDataType2,...>。<br/>说明:用于指定类型推断规则.`srcTsDataType`
包括 `boolean`,`int`,`long`,`float`,`double`,`NaN`.`dstTsDataType` 包括
`boolean`,`int`,`long`,`float`,`double`,`text`.当`srcTsDataType`为`boolean`,
`dstTsDataType`只能为`boolean`或`text`.当`srcTsDataType`为`NaN`,
`dstTsDataType`只能为`float`, `double`或`text`.当`srcTsDataType`为数值类型,
`dstTsDataType`的精度需要高于`srcTsDataType`.例如:`-typeInfer boolean=text,float=double`
| 否 | [...]
+| 参数 | 定义
[...]
+|:-------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
[...]
+| -h | 数据库 IP 地址
[...]
+| -p | 数据库端口
[...]
+| -u | 数据库连接用户名
[...]
+| -pw | 数据库连接密码
[...]
+| -s | 指定想要导入的数据,这里可以指定文件或者文件夹。如果指定的是文件夹,将会把文件夹中所有的后缀为 csv 或者 sql
的文件进行批量导入(V1.3.2版本参数是`-f`)
[...]
+| -fd | 指定存放失败 SQL 文件的目录,如果未指定这个参数,失败的文件将会被保存到源数据的目录中。<br/>说明:对于不支持的
SQL ,不合法的 SQL ,执行失败的 SQL 都会放到失败目录下的失败文件里(默认为 文件名.failed)
[...]
+| -aligned | 指定是否使用`aligned`接口,选项为 true 或者 false
<br/>说明:这个参数只在导入文件为csv文件时生效
[...]
+| -batch | 用于指定每一批插入的数据的点数(最小值为1,最大值为
Integer.*MAX_VALUE*)。如果程序报了`org.apache.thrift.transport.TTransportException:
Frame size larger than protect max size`这个错的话,就可以适当的调低这个参数。
[...]
+| -tp | 指定时间精度,可选值包括`ms`(毫秒),`ns`(纳秒),`us`(微秒)
[...]
+| -lpf | 指定每个导入失败文件写入数据的行数(V1.3.2版本参数是`-linesPerFailedFile`)
[...]
+| -typeInfer |
用于指定类型推断规则,如<srcTsDataType1=dstTsDataType1,srcTsDataType2=dstTsDataType2,...>。<br/>说明:用于指定类型推断规则.`srcTsDataType`
包括 `boolean`,`int`,`long`,`float`,`double`,`NaN`.`dstTsDataType` 包括
`boolean`,`int`,`long`,`float`,`double`,`text`.当`srcTsDataType`为`boolean`,
`dstTsDataType`只能为`boolean`或`text`.当`srcTsDataType`为`NaN`,
`dstTsDataType`只能为`float`, `double`或`text`.当`srcTsDataType`为数值类型,
`dstTsDataType`的精度需要高于`srcTsDataType`.例如:`-typeInfer boolean=text,float=double`
[...]
### 运行示例
