ruanwenjun commented on code in PR #13360:
URL: 
https://github.com/apache/dolphinscheduler/pull/13360#discussion_r1069419964


##########
docs/docs/zh/guide/data-quality.md:
##########
@@ -19,12 +19,14 @@
 data-quality.jar.name=dolphinscheduler-data-quality-dev-SNAPSHOT.jar
 ```
 
-这里的`data-quality.jar.name`请根据实际打包的名称来填写,
-如果单独打包`data-quality`的话,记得修改包名和`data-quality.jar.name`一致。
-如果是老版本升级使用,运行之前需要先执行`sql`更新脚本进行数据库初始化。
-如果要用到`MySQL`数据,需要将`pom.xml`中`MySQL`的`scope`注释掉
-当前只测试了`MySQL`、`PostgreSQL`和`HIVE`数据源,其他数据源暂时未测试过
-`Spark`需要配置好读取`Hive`元数据,`Spark`不是采用`jdbc`的方式读取`Hive`
+- 这里的`data-quality.jar.name`请根据实际打包的名称来填写,
+- 如果单独打包`data-quality`的话,记得修改包名和`data-quality.jar.name`一致。
+- 如果是老版本升级使用,运行之前需要先执行`SQL`更新脚本进行数据库初始化。
+- 当前 `dolphinscheduler-data-quality-dev-SNAPSHOT.jar` 是瘦包,不包含任何 `JDBC` 驱动。
+  如果有 `JDBC` 驱动需要,可以在`节点设置` `选项参数`处设置 `--jars` 参数,
+  如:`--jars /lib/jars/mysql-connector-java-8.0.16.jar`。
+- 当前只测试了`MySQL`、`PostgreSQL`和`HIVE`数据源,其他数据源暂时未测试过
+  `Spark`需要配置好读取`Hive`元数据,`Spark`不是采用`JDBC`的方式读取`Hive`

Review Comment:
   ```suggestion
   - 当前只测试了`MySQL`、`PostgreSQL`和`HIVE`数据源,其他数据源暂时未测试过。
   - `Spark`需要配置好读取`Hive`元数据,`Spark`不是采用`JDBC`的方式读取`Hive`。
   ```



##########
docs/docs/zh/guide/data-quality.md:
##########
@@ -19,12 +19,14 @@
 data-quality.jar.name=dolphinscheduler-data-quality-dev-SNAPSHOT.jar
 ```
 
-这里的`data-quality.jar.name`请根据实际打包的名称来填写,
-如果单独打包`data-quality`的话,记得修改包名和`data-quality.jar.name`一致。
-如果是老版本升级使用,运行之前需要先执行`sql`更新脚本进行数据库初始化。
-如果要用到`MySQL`数据,需要将`pom.xml`中`MySQL`的`scope`注释掉
-当前只测试了`MySQL`、`PostgreSQL`和`HIVE`数据源,其他数据源暂时未测试过
-`Spark`需要配置好读取`Hive`元数据,`Spark`不是采用`jdbc`的方式读取`Hive`
+- 这里的`data-quality.jar.name`请根据实际打包的名称来填写,

Review Comment:
   ```suggestion
   - 这里的`data-quality.jar.name`请根据实际打包的名称来填写。
   ```



-- 
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

To unsubscribe, e-mail: [email protected]

For queries about this service, please contact Infrastructure at:
[email protected]

Reply via email to