AhahaGe commented on a change in pull request #136:
URL:
https://github.com/apache/incubator-dolphinscheduler-website/pull/136#discussion_r456791174
##########
File path: docs/zh-cn/release/faq.md
##########
@@ -275,3 +281,271 @@ A : 将 hive pom
<version>1.1.0</version>
</dependency>
```
+
+---
+
+## Q:如何增加一台工作服务器
+A:
1,参考官网[部署文档](https://dolphinscheduler.apache.org/zh-cn/docs/1.2.0/user_doc/cluster-deployment.html)
1.3 小节,创建部署用户和 hosts 映射
+
+
2,参考官网[部署文档](https://dolphinscheduler.apache.org/zh-cn/docs/1.2.0/user_doc/cluster-deployment.html)
1.4 小节,配置 hosts 映射和 ssh 打通及修改目录权限.
+ 1.4 小节的最后一步是在当前新增机器上执行的,即需要给部署目录部署用户的权限
+
+ 3,复制正在运行的服务器上的部署目录到新机器的同样的部署目录下
+
+ 4,到 bin 下,启动 worker server 和 logger server
+```
+ ./dolphinscheduler-daemon.sh start worker-server
+ ./dolphinscheduler-daemon.sh start logger-server
+```
+
+---
+
+## Q:DolphinScheduler 什么时候发布新版本,同时新旧版本区别,以及如何升级,版本号规范
+A:1,Apache 项目的发版流程是通过邮件列表完成的。 你可以订阅 DolphinScheduler
的邮件列表,订阅之后如果有发版,你就可以收到邮件。请参照这篇[指引](https://github.com/apache/incubator-dolphinscheduler#get-help)来订阅
DolphinScheduler 的邮件列表。
+
+ 2,当项目发版的时候,会有发版说明告知具体的变更内容,同时也会有从旧版本升级到新版本的升级文档。
+
+ 3,版本号为 x.y.z, 当 x 增加时代表全新架构的版本。当 y 增加时代表与 y 版本之前的不兼容需要升级脚本或其他人工处理才能升级。当 z
增加代表是 bug 修复,升级完全兼容。无需额外处理。之前有个问题 1.0.2 的升级不兼容 1.0.1 需要升级脚本。
+
+---
+
+## Q:后续任务在前置任务失败情况下仍旧可以执行
+A:在启动工作流的时候,你可以设置失败策略:继续还是失败。
+
+
+---
+
+## Q:工作流模板 DAG、工作流实例、工作任务及实例之间是什么关系 工作流模板 DAG、工作流实例、工作任务及实例之间是什么关系
+A:1,一个 dag 支持最大并发 100?是指产生 100 个工作流实例并发运行吗?
+ 2,一个 dag 中的任务节点,也有并发数的配置,是指任务也可以并发多个线程运行吗?最大数 100 吗?
+
+1.2.1 version
+```
+ master.properties
+ 设置 master 节点并发执行的最大工作流数
+ master.exec.threads=100
+
+ Control the number of parallel tasks in each workflow
+ 设置每个工作流可以并发执行的最大任务数
+ master.exec.task.number=20
+
+ worker.properties
+ 设置 workder 节点并发执行的最大任务数
+ worker.exec.threads=100
+```
+
+---
+
+## Q:工作组管理页面没有展示按钮
+<p align="center">
+ <img
src="https://user-images.githubusercontent.com/39816903/81903776-d8cb9180-95f4-11ea-98cb-94ca1e6a1db5.png"
width="60%" />
+</p>
+A:1.3.0 版本,为了支持 k8s,worker ip 一直变动,因此我们不能在 UI 界面上配置,工作组可以配置在 worker.properties
上配置名称。
+
+---
+
+## Q:为什么不把 mysql 的 jdbc 连接包添加到 docker 镜像里面
+A:Mysql jdbc 连接包的许可证和 apache v2 的许可证不兼容,因此它不能被加入到 docker 镜像里面。
+
+---
+
+## Q:当一个任务提交多个 yarn 程序的时候经常失败
+<p align="center">
+ <img
src="https://user-images.githubusercontent.com/16174111/81312485-476e9380-90b9-11ea-9aad-ed009db899b1.png"
width="60%" />
+</p>
+A:这个 Bug 在 dev 分支已修复,并加入到需求/待做列表。
+
+---
+
+## Q:Master 服务和 Workder 服务在运行几天之后停止了
+<p align="center">
+ <img
src="https://user-images.githubusercontent.com/18378986/81293969-c3101680-90a0-11ea-87e5-ac9f0dd53f5e.png"
width="60%" />
+</p>
+A:会话超时时间太短了,只有 0.3 秒,修改 zookeeper.properties 的配置项:
+
+```
+ zookeeper.session.timeout=60000
+ zookeeper.connection.timeout=30000
+```
+
+---
+
+## Q:使用 docker-compose 默认配置启动,显示 zookeeper 错误
+<p align="center">
+ <img
src="https://user-images.githubusercontent.com/42579056/80374318-13c98780-88c9-11ea-8d5f-53448b957f02.png"
width="60%" />
+ </p>
+A:这个问题在 dev-1.3.0 版本解决了。这个
[pr](https://github.com/apache/incubator-dolphinscheduler/pull/2595) 已经解决了这个
bug,主要的改动点:
+
+```
+ 在docker-compose.yml文件中增加zookeeper的环境变量ZOO_4LW_COMMANDS_WHITELIST。
+ 把minLatency,avgLatency and maxLatency的类型从int改成float。
+```
+
+---
+
+## Q:界面上显示任务一直运行,结束不了,从日志上看任务实例为空
+<p align="center">
+ <img
src="https://user-images.githubusercontent.com/51871547/80302626-b1478d00-87dd-11ea-97d4-08aa2244a6d0.jpg"
width="60%" />
+ </p>
+<p align="center">
+ <img
src="https://user-images.githubusercontent.com/51871547/80302626-b1478d00-87dd-11ea-97d4-08aa2244a6d0.jpg"
width="60%" />
+ </p>
+A:这个 [bug](https://github.com/apache/incubator-dolphinscheduler/issues/1477)
描述了问题的详情。这个问题在 1.2.1 版本已经被修复了。
+对于 1.2.1 以下的版本,这种情况的一些提示:
+
+```
+1。清空 zk 下这个路径的任务:/dolphinscheduler/task_queue
+2. 修改任务状态为失败(int 值 6)
+3. 运行工作流来从失败中恢复
+```
+
+---
+
+## Q:zk 中注册的 master 信息 ip 地址是 127.0.0.1,而不是配置的域名所对应或者解析的 ip 地址,可能导致不能查看任务日志
+A:修复 bug:
+```
+ 1、confirm hostname
+ $hostname
+ hadoop1
+ 2、hostname -i
+ 127.0.0.1 10.3.57.15
+ 3、edit /etc/hosts,delete hadoop1 from 127.0.0.1 record
+ $cat /etc/hosts
+ 127.0.0.1 localhost
+ 10.3.57.15 ds1 hadoop1
+ 4、hostname -i
+ 10.3.57.15
+```
+ hostname 命令返回服务器主机名,hostname -i 返回的是服务器主机名在 /etc/hosts 中所有匹配的ip地址。所以我把
/etc/hosts 中 127.0.0.1 中的主机名删掉,只保留内网 ip 的解析就可以了,没必要把 127.0.0.1 整条注释掉, 只要
hostname 命令返回值在 /etc/hosts 中对应的内网 ip 正确就可以,ds 程序取了第一个值,我理解上 ds 程序不应该用 hostname
-i 取值这样有点问题,因为好多公司服务器的主机名都是运维配置的,感觉还是直接取配置文件的域名解析的返回 ip 更准确,或者 znode 中存域名信息而不是
/etc/hosts。
+
+---
+
+## Q:调度系统设置了一个秒级的任务,导致系统挂掉
+A:调度系统不支持秒级任务。
+
+---
+
+## Q:编译前后端代码 (dolphinscheduler-ui)
报错不能下载"https://github.com/sass/node-sass/releases/download/v4.13.1/darwin-x64-72_binding.node"
+A:1,cd dolphinscheduler-ui 然后删除 node_modules 目录
+```
+sudo rm -rf node_modules
+```
+ 2,通过 npm.taobao.org 下载 node-sass
+ ```
+ sudo npm uninstall node-sass
+ sudo npm i node-sass
--sass_binary_site=https://npm.taobao.org/mirrors/node-sass/
+ ```
+ 3,如果步骤 2 报错,请重新构建 node-saas
[参考链接](https://dolphinscheduler.apache.org/zh-cn/docs/1.2.0/user_doc/frontend-development.html)
+```
+ sudo npm rebuild node-sass
+ ```
+当问题解决之后,如果你不想每次编译都下载这个 node,你可以设置系统环境变量:SASS_BINARY_PATH=
/xxx/xxx/xxx/xxx.node。
+
+---
+
+## Q:当使用 mysql 作为 ds 数据库需要如何配置
+A:1,修改项目根目录 maven 配置文件,移除 scope 的 test 属性,这样 mysql 的包就可以在其它阶段被加载
+```
+<dependency>
+ <groupId>mysql</groupId>
+ <artifactId>mysql-connector-java</artifactId>
+ <version>${mysql.connector.version}</version>
+ <scope>test<scope>
+</dependency>
+```
+ 2,修改 application-dao.properties 和 quzrtz.properties 来使用 mysql 驱动
+ 默认驱动是 postgres 主要由于许可证原因。
+
+---
+
+## Q:shell 任务是如何运行的
+A:1,被执行的服务器在哪里配置,以及实际执行的服务器是哪台? 要指定在某个 worker 上去执行,可以在 worker 分组中配置,固定
IP,这样就可以把路径写死。如果配置的 workder 分组有多个 workder,实际执行的服务器由调度决定的,具有随机性。
+
+ 2,如果是服务器上某个路径的一个 shell 文件,怎么指向这个路径?服务器上某个路径下的 shell
文件,涉及到权限问题,不建议这么做。建议你可以使用资源中心的存储功能,然后在 shell
编辑器里面使用资源引用就可以,系统会帮助你把脚本下载到执行目录下。如果以 hdfs 作为资源中心,在执行的时候,调度器会把依赖的 jar 包,文件等资源拉到
worker 的执行目录上,我这边是 /tmp/escheduler/exec/process,该配置可以在 install.sh 中进行指定。
+
+ 3,以哪个用户来执行任务?执行任务的时候,调度器会采用 sudo -u 租户的方式去执行,租户是一个 linux 用户。
+
+---
+
+## Q:生产环境部署方式有推荐的最佳实践吗
+A:1,如果没有很多任务要运行,出于稳定性考虑我们建议使用 3 个节点,并且最好把 Master/Worder
服务部署在不同的节点。如果你只有一个节点,当然只能把所有的服务部署在同一个节点!通常来说,需要多少节点取决于你的业务,海豚调度系统本身不需要很多的资源。充分测试之后,你们将找到使用较少节点的合适的部署方式。
+
+---
+
+## Q:DEPENDENT 节点
+A:1,DEPENDT 节点实际是没有执行体的,是专门用来配置数据周期依赖逻辑,然后再把执行节点挂载后面,来实现任务间的周期依赖。
Review comment:
ok
----------------------------------------------------------------
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.
For queries about this service, please contact Infrastructure at:
[email protected]