This is an automated email from the ASF dual-hosted git repository.
github-bot pushed a commit to branch asf-site
in repository
https://gitbox.apache.org/repos/asf/incubator-dolphinscheduler-website.git
The following commit(s) were added to refs/heads/asf-site by this push:
new a05403c Automated deployment: Thu Jul 30 10:08:38 UTC 2020
6f31cebfce2d3505d039268621c2b7ed05aca099
a05403c is described below
commit a05403c0e2be6b88cd8bff48b28b75b791084906
Author: dailidong <[email protected]>
AuthorDate: Thu Jul 30 10:08:38 2020 +0000
Automated deployment: Thu Jul 30 10:08:38 UTC 2020
6f31cebfce2d3505d039268621c2b7ed05aca099
---
zh-cn/docs/release/faq.html | 41 ++++++++++++++++++++---------------------
zh-cn/docs/release/faq.json | 2 +-
2 files changed, 21 insertions(+), 22 deletions(-)
diff --git a/zh-cn/docs/release/faq.html b/zh-cn/docs/release/faq.html
index 06fadf2..fe36f04 100644
--- a/zh-cn/docs/release/faq.html
+++ b/zh-cn/docs/release/faq.html
@@ -13,7 +13,7 @@
</head>
<body>
<div id="root"><div class="documentation-page"
data-reactroot=""><header class="header-container header-container-normal"><div
class="header-body"><a href="/zh-cn/index.html"><img class="logo"
src="/img/hlogo_colorful.svg"/></a><div class="search search-normal"><span
class="icon-search"></span></div><span class="language-switch
language-switch-normal">En</span><div class="header-menu"><img
class="header-menu-toggle" src="/img/system/menu_gray.png"/><div><ul
class="ant-menu blackClass an [...]
-<p>A:1.2 版本以前项目名称是 eschedule,1.2 以及之后的版本叫做 dolphinScheduler。</p>
+<p>A:1.2 版本以前项目名称是 EasyScheduler,1.2 以及之后的版本叫做 DolphinScheduler。</p>
<hr>
<h2>Q:DolphinScheduler 服务介绍及建议运行内存</h2>
<p>A:DolphinScheduler 由 5
个服务组成,MasterServer、WorkerServer、ApiServer、AlertServer、LoggerServer 和 UI。</p>
@@ -53,10 +53,10 @@
<p>A:支持绝大多数邮箱,qq、163、126、139、outlook、aliyun 等皆支持。支持 <strong>TLS 和 SSL</strong>
协议,可以在 alert.properties 中选择性配置</p>
<hr>
<h2>Q:常用的系统变量时间参数有哪些,如何使用?</h2>
-<p>A:请参考使用手册</p>
+<p>A:请参考<a
href="https://dolphinscheduler.apache.org/zh-cn/docs/1.3.1/user_doc/system-manual.html">使用手册</a>
第8小节</p>
<hr>
<h2>Q:pip install kazoo 这个安装报错。是必须安装的吗?</h2>
-<p>A: 这个是 python 连接 Zookeeper 需要使用到的,必须要安装</p>
+<p>A: 这个是 python 连接 Zookeeper
需要使用到的,用于删除Zookeeper中的master/worker临时节点信息。所以如果是第一次安装,就可以忽略错误。在1.3.0之后,kazoo不再需要了,我们用程序来代替kazoo所做的</p>
<hr>
<h2>Q:怎么指定机器运行任务</h2>
<p>A:使用 <strong>管理员</strong> 创建 Worker 分组,在 <strong>流程定义启动</strong>
的时候可<strong>指定Worker分组</strong>或者在<strong>任务节点上指定Worker分组</strong>。如果不指定,则使用
Default,<strong>Default默认是使用的集群里所有的Worker中随机选取一台来进行任务提交、执行</strong></p>
@@ -65,7 +65,7 @@
<p>A:我们同时 <strong>支持流程和任务的优先级</strong>。优先级我们有 <strong>HIGHEST、HIGH、MEDIUM、LOW
和 LOWEST</strong>
五种级别。<strong>可以设置不同流程实例之间的优先级,也可以设置同一个流程实例中不同任务实例的优先级</strong>。详细内容请参考任务优先级设计
<a
href="https://analysys.github.io/easyscheduler_docs_cn/%E7%B3%BB%E7%BB%9F%E6%9E%B6%E6%9E%84%E8%AE%BE%E8%AE%A1.html#%E7%B3%BB%E7%BB%9F%E6%9E%B6%E6%9E%84%E8%AE%BE%E8%AE%A1">https://analysys.github.io/easyscheduler_docs_cn/系统架构设计.html#系统架构设计</a></p>
<hr>
<h2>Q:dolphinscheduler-grpc 报错</h2>
-<p>A:在根目录下执行:mvn -U clean package assembly:assembly -Dmaven.test.skip=true ,
然后刷新下整个项目</p>
+<p>A:在 1.2 及以前版本中,在根目录下执行:mvn -U clean package assembly:assembly
-Dmaven.test.skip=true,然后刷新下整个项目就好,1.3版本中不再使用 GRPC 进行通信了</p>
<hr>
<h2>Q:DolphinScheduler 支持 windows 上运行么</h2>
<p>A: 理论上只有 <strong>Worker 是需要在 Linux 上运行的</strong>,其它的服务都是可以在 windows
上正常运行的。但是还是建议最好能在 linux 上部署使用</p>
@@ -74,29 +74,30 @@
<p>A:单独安装 <strong>npm install node-sass --unsafe-perm</strong>,之后再 <strong>npm
install</strong></p>
<hr>
<h2>Q:UI 不能正常登陆访问</h2>
-<p>A: 1,如果是 node 启动的查看 dolphinscheduler-ui 下的 .env API_BASE 配置是否是 Api Server
服务地址</p>
+<p>A: 1,如果是 node 启动的查看 dolphinscheduler-ui 下的 .env 文件里的 API_BASE 配置是否是 Api
Server 服务地址</p>
<p> 2,如果是 nginx 启动的并且是通过 <strong><a
href="http://install-dolphinscheduler-ui.sh">install-dolphinscheduler-ui.sh</a></strong>
安装的,查看</p>
<p> <strong>/etc/nginx/conf.d/dolphinscheduler.conf</strong> 中的
proxy_pass 配置是否是 Api Server 服务地址</p>
-<p> 3,如果以上配置都是正确的,那么请查看 Api Server 服务是否是正常的,</p>
+<p> 3,如果以上配置都是正确的,那么请查看 Api Server 服务是否是正常的,</p>
<p> curl <a
href="http://192.168.xx.xx:12345/dolphinscheduler/users/get-user-info">http://192.168.xx.xx:12345/dolphinscheduler/users/get-user-info</a>
查看 Api Server 日志,</p>
<p> 如果提示
cn.dolphinscheduler.api.interceptor.LoginHandlerInterceptor:[76] - session info
is null,则证明 Api Server 服务是正常的</p>
-<p> 4,如果以上都没有问题,需要查看一下 <strong>application.properties</strong> 中的
<strong>server.context-path 和 server.port 配置</strong>是否正确</p>
+<p> 4,如果以上都没有问题,需要查看一下 <strong>application.properties</strong> 中的
<strong>server.context-path 和 server.port 配置</strong>是否正确
+注意:1.3 版本直接使用 Jetty 进行前端代码的解析,无需再安装配置 nginx 了</p>
<hr>
<h2>Q:流程定义手动启动或调度启动之后,没有流程实例生成</h2>
-<p>A: 1,首先通过 <strong>jps 查看MasterServer服务是否存在</strong>,或者从服务监控直接查看 zk 中是否存在
master 服务</p>
+<p>A: 1,首先通过 <strong>jps 查看MasterServer服务是否存在</strong>,或者从服务监控直接查看 zk 中是否存在
master 服务</p>
<p> 2,如果存在 master 服务,查看 <strong>命令状态统计</strong> 或者
<strong>t_ds_error_command</strong> 中是否增加的新记录,如果增加了,<strong>请查看 message
字段定位启动异常原因</strong></p>
<hr>
<h2>Q:任务状态一直处于提交成功状态</h2>
-<p>A: 1,首先通过 <strong>jps 查看 WorkerServer 服务是否存在</strong>,或者从服务监控直接查看 zk 中是否存在
worker 服务</p>
-<p> 2,如果 <strong>WorkerServer</strong> 服务正常,需要 <strong>查看 MasterServer
是否把 task 任务放到 zk 队列中</strong> ,<strong>需要查看 MasterServer 日志及 zk
队列中是否有任务阻塞</strong></p>
+<p>A: 1,首先通过 <strong>jps 查看 WorkerServer 服务是否存在</strong>,或者从服务监控直接查看 zk
中是否存在 worker 服务</p>
+<p> 2,如果 <strong>WorkerServer</strong> 服务正常,需要 <strong>查看
MasterServer 是否把 task 任务放到 zk 队列中</strong> ,<strong>需要查看 MasterServer 日志及 zk
队列中是否有任务阻塞</strong></p>
<p> 3,如果以上都没有问题,需要定位是否指定了 Worker 分组,但是 <strong>Worker
分组的机器不是在线状态</strong></p>
<hr>
<h2>Q:<a href="http://install.sh">install.sh</a> 中需要注意问题</h2>
-<p>A: 1,如果替换变量中包含特殊字符,<strong>请用 \ 转移符进行转移</strong></p>
+<p>A: 1,如果替换变量中包含特殊字符,<strong>请用 \ 转移符进行转移</strong></p>
<p>
2,installPath="/data1_1T/dolphinscheduler",<strong>这个目录不能和当前要一键安装的 <a
href="http://install.sh">install.sh</a> 目录是一样的</strong></p>
<p> 3,deployUser="dolphinscheduler",<strong>部署用户必须具有 sudo
权限</strong>,因为 worker 是通过 sudo -u 租户 sh xxx.command 进行执行的</p>
-<p>
4,monitorServerState="false",服务监控脚本是否启动,默认是不启动服务监控脚本的。<strong>如果启动服务监控脚本,则每
5 分钟定时来监控 master 和 worker 的服务是否 down 机,如果 down 机则会自动重启</strong></p>
-<p> 5,hdfsStartupSate="false",是否开启 HDFS
资源上传功能。默认是不开启的,<strong>如果不开启则资源中心是不能使用的</strong>。如果开启,需要
conf/common/hadoop/hadoop.properties 中配置 fs.defaultFS 和 yarn 的相关配置,如果使用
namenode HA,需要将 core-site.xml 和 hdfs-site.xml 复制到conf根目录下</p>
+<p>
4,monitorServerState="false",服务监控脚本是否启动,默认是不启动服务监控脚本的。<strong>如果启动服务监控脚本,则每
5 分钟定时来监控 master 和 worker 的服务是否 down 机,如果 down 机则会自动重启</strong></p>
+<p> 5,hdfsStartupSate="false",是否开启 HDFS
资源上传功能。默认是不开启的,<strong>如果不开启则资源中心是不能使用的</strong>。如果开启,需要
conf/common/hadoop/hadoop.properties 中配置 fs.defaultFS 和 yarn 的相关配置,如果使用
namenode HA,需要将 core-site.xml 和 hdfs-site.xml 复制到conf根目录下</p>
<p> 注意:<strong>1.0.x 版本是不会自动创建 hdfs
根目录的,需要自行创建,并且需要部署用户有hdfs的操作权限</strong></p>
<hr>
<h2>Q:流程定义和流程实例下线异常</h2>
@@ -138,27 +139,25 @@
<p>A:有的,<strong>如果定时的起止时间是同一个时间,那么此定时将是无效的定时</strong>。<strong>如果起止时间的结束时间比当前的时间小,很有可能定时会被自动删除</strong></p>
<h2>Q:任务依赖有几种实现</h2>
<p>A: 1,<strong>DAG</strong> 之间的任务依赖关系,是从 <strong>入度为零</strong> 进行 DAG 切分的</p>
-<p> 2,有 <strong>任务依赖节点</strong> ,可以实现跨流程的任务或者流程依赖,具体请参考
依赖(DEPENDENT)节点:<a
href="https://analysys.github.io/easyscheduler_docs_cn/%E7%B3%BB%E7%BB%9F%E4%BD%BF%E7%94%A8%E6%89%8B%E5%86%8C.html#%E4%BB%BB%E5%8A%A1%E8%8A%82%E7%82%B9%E7%B1%BB%E5%9E%8B%E5%92%8C%E5%8F%82%E6%95%B0%E8%AE%BE%E7%BD%AE">https://analysys.github.io/easyscheduler_docs_cn/系统使用手册.html#任务节点类型和参数设置</a></p>
-<p> 注意:<strong>不支持跨项目的流程或任务依赖</strong></p>
+<p> 2,有 <strong>任务依赖节点</strong> ,可以实现跨流程的任务或者流程依赖,具体请参考 依赖(DEPENDENT)节点:<a
href="https://analysys.github.io/easyscheduler_docs_cn/%E7%B3%BB%E7%BB%9F%E4%BD%BF%E7%94%A8%E6%89%8B%E5%86%8C.html#%E4%BB%BB%E5%8A%A1%E8%8A%82%E7%82%B9%E7%B1%BB%E5%9E%8B%E5%92%8C%E5%8F%82%E6%95%B0%E8%AE%BE%E7%BD%AE">https://analysys.github.io/easyscheduler_docs_cn/系统使用手册.html#任务节点类型和参数设置</a></p>
<h2>Q:流程定义有几种启动方式</h2>
<p>A: 1,在 <strong>流程定义列表</strong>,点击 <strong>启动</strong> 按钮</p>
<p> 2,<strong>流程定义列表添加定时器</strong>,调度启动流程定义</p>
<p> 3,流程定义 <strong>查看或编辑</strong> DAG 页面,任意 <strong>任务节点右击</strong>
启动流程定义</p>
<p> 4,可以对流程定义 DAG 编辑,设置某些任务的运行标志位
<strong>禁止运行</strong>,则在启动流程定义的时候,将该节点的连线将从 DAG 中去掉</p>
<h2>Q:Python 任务设置 Python 版本</h2>
-<p>A: 1,对于 <strong>1.0.3 之后的版本</strong>只需要修改
conf/env/.dolphinscheduler_env.sh 中的 PYTHON_HOME</p>
+<p>A: 只需要修改 conf/env/dolphinscheduler_env.sh 中的 PYTHON_HOME</p>
<pre><code>export PYTHON_HOME=/bin/python
</code></pre>
<p>注意:这了 <strong>PYTHON_HOME</strong> ,是 python 命令的绝对路径,而不是单纯的
PYTHON_HOME,还需要注意的是 export PATH 的时候,需要直接</p>
<pre><code>export
PATH=$HADOOP_HOME/bin:$SPARK_HOME1/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH
</code></pre>
-<p> 2,对 1.0.3 之前的版本,Python 任务只能支持系统的 Python 版本,不支持指定 Python 版本</p>
<h2>Q:Worker Task 通过 sudo -u 租户 sh xxx.command 会产生子进程,在 kill 的时候,是否会杀掉</h2>
<p>A: 我们会在 1.0.4 中增加 kill 任务同时,kill 掉任务产生的各种所有子进程</p>
<h2>Q:DolphinScheduler 中的队列怎么用,用户队列和租户队列是什么意思</h2>
<p>A : DolphinScheduler
中的队列可以在用户或者租户上指定队列,<strong>用户指定的队列优先级是高于租户队列的优先级的。</strong>,例如:对 MR 任务指定队列,是通过
mapreduce.job.queuename 来指定队列的。</p>
<p>注意:MR 在用以上方法指定队列的时候,传递参数请使用如下方式:</p>
-<pre><code> Configuration conf = new
Configuration();
+<pre><code> Configuration conf = new Configuration();
GenericOptionsParser optionParser = new GenericOptionsParser(conf,
args);
String[] remainingArgs = optionParser.getRemainingArgs();
</code></pre>
@@ -190,10 +189,10 @@
<hr>
<h2>Q:如何增加一台工作服务器</h2>
<p>A: 1,参考官网<a
href="https://dolphinscheduler.apache.org/zh-cn/docs/1.2.0/user_doc/cluster-deployment.html">部署文档</a>
1.3 小节,创建部署用户和 hosts 映射</p>
-<p> 2,参考官网<a
href="https://dolphinscheduler.apache.org/zh-cn/docs/1.2.0/user_doc/cluster-deployment.html">部署文档</a>
1.4 小节,配置 hosts 映射和 ssh 打通及修改目录权限.
+<p> 2,参考官网<a
href="https://dolphinscheduler.apache.org/zh-cn/docs/1.2.0/user_doc/cluster-deployment.html">部署文档</a>
1.4 小节,配置 hosts 映射和 ssh 打通及修改目录权限.
1.4 小节的最后一步是在当前新增机器上执行的,即需要给部署目录部署用户的权限</p>
-<p> 3,复制正在运行的服务器上的部署目录到新机器的同样的部署目录下</p>
-<p> 4,到 bin 下,启动 worker server 和 logger server</p>
+<p> 3,复制正在运行的服务器上的部署目录到新机器的同样的部署目录下</p>
+<p> 4,到 bin 下,启动 worker server 和 logger server</p>
<pre><code> ./dolphinscheduler-daemon.sh start worker-server
./dolphinscheduler-daemon.sh start logger-server
</code></pre>
diff --git a/zh-cn/docs/release/faq.json b/zh-cn/docs/release/faq.json
index 7b321e1..e7cd1f1 100644
--- a/zh-cn/docs/release/faq.json
+++ b/zh-cn/docs/release/faq.json
@@ -1,6 +1,6 @@
{
"filename": "faq.md",
- "__html": "<h2>Q:项目的名称是?</h2>\n<p>A:1.2 版本以前项目名称是 eschedule,1.2 以及之后的版本叫做
dolphinScheduler。</p>\n<hr>\n<h2>Q:DolphinScheduler
服务介绍及建议运行内存</h2>\n<p>A:DolphinScheduler 由 5
个服务组成,MasterServer、WorkerServer、ApiServer、AlertServer、LoggerServer 和
UI。</p>\n<table>\n<thead>\n<tr>\n<th>服务</th>\n<th>说明</th>\n</tr>\n</thead>\n<tbody>\n<tr>\n<td>MasterServer</td>\n<td>主要负责
<strong>DAG</strong>
的切分和任务状态的监控</td>\n</tr>\n<tr>\n<td>WorkerServer/LoggerServer</td>\n<td>主要负责任务的提交、执行和任务状态的更新。LoggerServer
用于 [...]
+ "__html": "<h2>Q:项目的名称是?</h2>\n<p>A:1.2 版本以前项目名称是 EasyScheduler,1.2
以及之后的版本叫做 DolphinScheduler。</p>\n<hr>\n<h2>Q:DolphinScheduler
服务介绍及建议运行内存</h2>\n<p>A:DolphinScheduler 由 5
个服务组成,MasterServer、WorkerServer、ApiServer、AlertServer、LoggerServer 和
UI。</p>\n<table>\n<thead>\n<tr>\n<th>服务</th>\n<th>说明</th>\n</tr>\n</thead>\n<tbody>\n<tr>\n<td>MasterServer</td>\n<td>主要负责
<strong>DAG</strong>
的切分和任务状态的监控</td>\n</tr>\n<tr>\n<td>WorkerServer/LoggerServer</td>\n<td>主要负责任务的提交、执行和任务状态的更新。LoggerServe
[...]
"link": "/zh-cn/docs/release/faq.html",
"meta": {}
}
\ No newline at end of file