This is an automated email from the ASF dual-hosted git repository.
lgcareer pushed a commit to branch master
in repository
https://gitbox.apache.org/repos/asf/incubator-dolphinscheduler-website.git
The following commit(s) were added to refs/heads/master by this push:
new af45fc4 add 1.2.1 docs
new f03dea6 Merge pull request #91 from lgcareer/master
af45fc4 is described below
commit af45fc4f332626b03eb84f9733678a6f958f56fe
Author: lgcareer <[email protected]>
AuthorDate: Wed Feb 26 10:29:39 2020 +0800
add 1.2.1 docs
---
docs/zh-cn/1.2.1/architecture-design.md | 304 +++++++++++
docs/zh-cn/1.2.1/cluster-deployment.md | 379 ++++++++++++++
docs/zh-cn/1.2.1/hardware-environment.md | 48 ++
docs/zh-cn/1.2.1/metadata-1.2.md | 184 +++++++
docs/zh-cn/1.2.1/plugin-development.md | 54 ++
docs/zh-cn/1.2.1/quick-start.md | 58 ++
docs/zh-cn/1.2.1/standalone-deployment.md | 451 ++++++++++++++++
docs/zh-cn/1.2.1/system-manual.md | 842 ++++++++++++++++++++++++++++++
docs/zh-cn/1.2.1/upgrade.md | 38 ++
site_config/site.js | 12 +-
10 files changed, 2369 insertions(+), 1 deletion(-)
diff --git a/docs/zh-cn/1.2.1/architecture-design.md
b/docs/zh-cn/1.2.1/architecture-design.md
new file mode 100644
index 0000000..acc8115
--- /dev/null
+++ b/docs/zh-cn/1.2.1/architecture-design.md
@@ -0,0 +1,304 @@
+## 系统架构设计
+在对调度系统架构说明之前,我们先来认识一下调度系统常用的名词
+
+### 1.名词解释
+**DAG:** 全称Directed Acyclic
Graph,简称DAG。工作流中的Task任务以有向无环图的形式组装起来,从入度为零的节点进行拓扑遍历,直到无后继节点为止。举例如下图:
+
+<p align="center">
+ <img src="/img/dag_examples_cn.jpg" alt="dag示例" width="60%" />
+ <p align="center">
+ <em>dag示例</em>
+ </p>
+</p>
+
+**流程定义**:通过拖拽任务节点并建立任务节点的关联所形成的可视化**DAG**
+
+**流程实例**:流程实例是流程定义的实例化,可以通过手动启动或定时调度生成,流程定义每运行一次,产生一个流程实例
+
+**任务实例**:任务实例是流程定义中任务节点的实例化,标识着具体的任务执行状态
+
+**任务类型**:
目前支持有SHELL、SQL、SUB_PROCESS(子流程)、PROCEDURE、MR、SPARK、PYTHON、DEPENDENT(依赖),同时计划支持动态插件扩展,注意:其中子
**SUB_PROCESS** 也是一个单独的流程定义,是可以单独启动执行的
+
+**调度方式:**
系统支持基于cron表达式的定时调度和手动调度。命令类型支持:启动工作流、从当前节点开始执行、恢复被容错的工作流、恢复暂停流程、从失败节点开始执行、补数、定时、重跑、暂停、停止、恢复等待线程。其中
**恢复被容错的工作流** 和 **恢复等待线程** 两种命令类型是由调度内部控制使用,外部无法调用
+
+**定时调度**:系统采用 **quartz** 分布式调度器,并同时支持cron表达式可视化的生成
+
+**依赖**:系统不单单支持 **DAG** 简单的前驱和后继节点之间的依赖,同时还提供**任务依赖**节点,支持**流程间的自定义任务依赖**
+
+**优先级** :支持流程实例和任务实例的优先级,如果流程实例和任务实例的优先级不设置,则默认是先进先出
+
+**邮件告警**:支持 **SQL任务** 查询结果邮件发送,流程实例运行结果邮件告警及容错告警通知
+
+**失败策略**:对于并行运行的任务,如果有任务失败,提供两种失败策略处理方式,**继续**是指不管并行运行任务的状态,直到流程失败结束。**结束**是指一旦发现失败任务,则同时Kill掉正在运行的并行任务,流程失败结束
+
+**补数**:补历史数据,支持**区间并行和串行**两种补数方式
+
+### 2.系统架构
+
+#### 2.1 系统架构图
+<p align="center">
+ <img src="/img/architecture.jpg" alt="系统架构图" width="70%" />
+ <p align="center">
+ <em>系统架构图</em>
+ </p>
+</p>
+
+#### 2.2 架构说明
+
+* **MasterServer**
+
+ MasterServer采用分布式无中心设计理念,MasterServer主要负责 DAG
任务切分、任务提交监控,并同时监听其它MasterServer和WorkerServer的健康状态。
+ MasterServer服务启动时向Zookeeper注册临时节点,通过监听Zookeeper临时节点变化来进行容错处理。
+
+ ##### 该服务内主要包含:
+
+ - **Distributed
Quartz**分布式调度组件,主要负责定时任务的启停操作,当quartz调起任务后,Master内部会有线程池具体负责处理任务的后续操作
+
+ - **MasterSchedulerThread**是一个扫描线程,定时扫描数据库中的 **command**
表,根据不同的**命令类型**进行不同的业务操作
+
+ - **MasterExecThread**主要是负责DAG任务切分、任务提交监控、各种不同命令类型的逻辑处理
+
+ - **MasterTaskExecThread**主要负责任务的持久化
+
+* **WorkerServer**
+
+
WorkerServer也采用分布式无中心设计理念,WorkerServer主要负责任务的执行和提供日志服务。WorkerServer服务启动时向Zookeeper注册临时节点,并维持心跳。
+ ##### 该服务包含:
+ - **FetchTaskThread**主要负责不断从**Task
Queue**中领取任务,并根据不同任务类型调用**TaskScheduleThread**对应执行器。
+
+ - **LoggerServer**是一个RPC服务,提供日志分片查看、刷新和下载等功能
+
+* **ZooKeeper**
+
+
ZooKeeper服务,系统中的MasterServer和WorkerServer节点都通过ZooKeeper来进行集群管理和容错。另外系统还基于ZooKeeper进行事件监听和分布式锁。
+ 我们也曾经基于Redis实现过队列,不过我们希望DolphinScheduler依赖到的组件尽量地少,所以最后还是去掉了Redis实现。
+
+* **Task Queue**
+
+
提供任务队列的操作,目前队列也是基于Zookeeper来实现。由于队列中存的信息较少,不必担心队列里数据过多的情况,实际上我们压测过百万级数据存队列,对系统稳定性和性能没影响。
+
+* **Alert**
+
+
提供告警相关接口,接口主要包括**告警**两种类型的告警数据的存储、查询和通知功能。其中通知功能又有**邮件通知**和**SNMP(暂未实现)**两种。
+
+* **API**
+
+ API接口层,主要负责处理前端UI层的请求。该服务统一提供RESTful api向外部提供请求服务。
+ 接口包括工作流的创建、定义、查询、修改、发布、下线、手工启动、停止、暂停、恢复、从该节点开始执行等等。
+
+* **UI**
+
+ 系统的前端页面,提供系统的各种可视化操作界面,详见<a href="/zh-cn/docs/user_doc/system-manual.html"
target="_self">系统使用手册</a>部分。
+
+#### 2.3 架构设计思想
+
+##### 一、去中心化vs中心化
+
+###### 中心化思想
+
+中心化的设计理念比较简单,分布式集群中的节点按照角色分工,大体上分为两种角色:
+<p align="center">
+ <img
src="https://analysys.github.io/easyscheduler_docs_cn/images/master_slave.png"
alt="master-slave角色" width="50%" />
+ </p>
+
+- Master的角色主要负责任务分发并监督Slave的健康状态,可以动态的将任务均衡到Slave上,以致Slave节点不至于“忙死”或”闲死”的状态。
+- Worker的角色主要负责任务的执行工作并维护和Master的心跳,以便Master可以分配任务给Slave。
+
+
+
+中心化思想设计存在的问题:
+
+-
一旦Master出现了问题,则群龙无首,整个集群就会崩溃。为了解决这个问题,大多数Master/Slave架构模式都采用了主备Master的设计方案,可以是热备或者冷备,也可以是自动切换或手动切换,而且越来越多的新系统都开始具备自动选举切换Master的能力,以提升系统的可用性。
+-
另外一个问题是如果Scheduler在Master上,虽然可以支持一个DAG中不同的任务运行在不同的机器上,但是会产生Master的过负载。如果Scheduler在Slave上,则一个DAG中所有的任务都只能在某一台机器上进行作业提交,则并行任务比较多的时候,Slave的压力可能会比较大。
+
+
+
+###### 去中心化
+ <p align="center"
+ <img
src="https://analysys.github.io/easyscheduler_docs_cn/images/decentralization.png"
alt="去中心化" width="50%" />
+ </p>
+
+-
在去中心化设计里,通常没有Master/Slave的概念,所有的角色都是一样的,地位是平等的,全球互联网就是一个典型的去中心化的分布式系统,联网的任意节点设备down机,都只会影响很小范围的功能。
+- 去中心化设计的核心设计在于整个分布式系统中不存在一个区别于其他节点的”管理者”,因此不存在单点故障问题。但由于不存在”
管理者”节点所以每个节点都需要跟其他节点通信才得到必须要的机器信息,而分布式系统通信的不可靠行,则大大增加了上述功能的实现难度。
+-
实际上,真正去中心化的分布式系统并不多见。反而动态中心化分布式系统正在不断涌出。在这种架构下,集群中的管理者是被动态选择出来的,而不是预置的,并且集群在发生故障的时候,集群的节点会自发的举行"会议"来选举新的"管理者"去主持工作。最典型的案例就是ZooKeeper及Go语言实现的Etcd。
+
+
+
+-
DolphinScheduler的去中心化是Master/Worker注册到Zookeeper中,实现Master集群和Worker集群无中心,并使用Zookeeper分布式锁来选举其中的一台Master或Worker为“管理者”来执行任务。
+
+##### 二、分布式锁实践
+
+DolphinScheduler使用ZooKeeper分布式锁来实现同一时刻只有一台Master执行Scheduler,或者只有一台Worker执行任务的提交。
+1. 获取分布式锁的核心流程算法如下
+ <p align="center">
+ <img
src="https://analysys.github.io/easyscheduler_docs_cn/images/distributed_lock.png"
alt="获取分布式锁流程" width="50%" />
+ </p>
+
+2. DolphinScheduler中Scheduler线程分布式锁实现流程图:
+ <p align="center">
+ <img src="/img/distributed_lock_procss.png" alt="获取分布式锁流程" width="50%" />
+ </p>
+
+
+##### 三、线程不足循环等待问题
+
+- 如果一个DAG中没有子流程,则如果Command中的数据条数大于线程池设置的阈值,则直接流程等待或失败。
+- 如果一个大的DAG中嵌套了很多子流程,如下图则会产生“死等”状态:
+
+ <p align="center">
+ <img
src="https://analysys.github.io/easyscheduler_docs_cn/images/lack_thread.png"
alt="线程不足循环等待问题" width="50%" />
+ </p>
+上图中MainFlowThread等待SubFlowThread1结束,SubFlowThread1等待SubFlowThread2结束,
SubFlowThread2等待SubFlowThread3结束,而SubFlowThread3等待线程池有新线程,则整个DAG流程不能结束,从而其中的线程也不能释放。这样就形成的子父流程循环等待的状态。此时除非启动新的Master来增加线程来打破这样的”僵局”,否则调度集群将不能再使用。
+
+对于启动新Master来打破僵局,似乎有点差强人意,于是我们提出了以下三种方案来降低这种风险:
+
+1.
计算所有Master的线程总和,然后对每一个DAG需要计算其需要的线程数,也就是在DAG流程执行之前做预计算。因为是多Master线程池,所以总线程数不太可能实时获取。
+2. 对单Master线程池进行判断,如果线程池已经满了,则让线程直接失败。
+3. 增加一种资源不足的Command类型,如果线程池不足,则将主流程挂起。这样线程池就有了新的线程,可以让资源不足挂起的流程重新唤醒执行。
+
+注意:Master Scheduler线程在获取Command的时候是FIFO的方式执行的。
+
+于是我们选择了第三种方式来解决线程不足的问题。
+
+
+##### 四、容错设计
+容错分为服务宕机容错和任务重试,服务宕机容错又分为Master容错和Worker容错两种情况
+
+###### 1. 宕机容错
+
+服务容错设计依赖于ZooKeeper的Watcher机制,实现原理如图:
+
+ <p align="center">
+ <img
src="https://analysys.github.io/easyscheduler_docs_cn/images/fault-tolerant.png"
alt="DolphinScheduler容错设计" width="40%" />
+ </p>
+其中Master监控其他Master和Worker的目录,如果监听到remove事件,则会根据具体的业务逻辑进行流程实例容错或者任务实例容错。
+
+
+
+- Master容错流程图:
+
+ <p align="center">
+ <img
src="https://analysys.github.io/easyscheduler_docs_cn/images/fault-tolerant_master.png"
alt="Master容错流程图" width="40%" />
+ </p>
+ZooKeeper Master容错完成之后则重新由DolphinScheduler中Scheduler线程调度,遍历 DAG
找到”正在运行”和“提交成功”的任务,对”正在运行”的任务监控其任务实例的状态,对”提交成功”的任务需要判断Task
Queue中是否已经存在,如果存在则同样监控任务实例的状态,如果不存在则重新提交任务实例。
+
+
+
+- Worker容错流程图:
+
+ <p align="center">
+ <img
src="https://analysys.github.io/easyscheduler_docs_cn/images/fault-tolerant_worker.png"
alt="Worker容错流程图" width="40%" />
+ </p>
+
+Master Scheduler线程一旦发现任务实例为” 需要容错”状态,则接管任务并进行重新提交。
+
+ 注意:由于”
网络抖动”可能会使得节点短时间内失去和ZooKeeper的心跳,从而发生节点的remove事件。对于这种情况,我们使用最简单的方式,那就是节点一旦和ZooKeeper发生超时连接,则直接将Master或Worker服务停掉。
+
+###### 2.任务失败重试
+
+这里首先要区分任务失败重试、流程失败恢复、流程失败重跑的概念:
+
+- 任务失败重试是任务级别的,是调度系统自动进行的,比如一个Shell任务设置重试次数为3次,那么在Shell任务运行失败后会自己再最多尝试运行3次
+- 流程失败恢复是流程级别的,是手动进行的,恢复是从只能**从失败的节点开始执行**或**从当前节点开始执行**
+- 流程失败重跑也是流程级别的,是手动进行的,重跑是从开始节点进行
+
+
+
+接下来说正题,我们将工作流中的任务节点分了两种类型。
+
+- 一种是业务节点,这种节点都对应一个实际的脚本或者处理语句,比如Shell节点,MR节点、Spark节点、依赖节点等。
+
+- 还有一种是逻辑节点,这种节点不做实际的脚本或语句处理,只是整个流程流转的逻辑处理,比如子流程节等。
+
+每一个**业务节点**都可以配置失败重试的次数,当该任务节点失败,会自动重试,直到成功或者超过配置的重试次数。**逻辑节点**不支持失败重试。但是逻辑节点里的任务支持重试。
+
+如果工作流中有任务失败达到最大重试次数,工作流就会失败停止,失败的工作流可以手动进行重跑操作或者流程恢复操作
+
+
+
+##### 五、任务优先级设计
+在早期调度设计中,如果没有优先级设计,采用公平调度设计的话,会遇到先行提交的任务可能会和后继提交的任务同时完成的情况,而不能做到设置流程或者任务的优先级,因此我们对此进行了重新设计,目前我们设计如下:
+
+-
按照**不同流程实例优先级**优先于**同一个流程实例优先级**优先于**同一流程内任务优先级**优先于**同一流程内任务**提交顺序依次从高到低进行任务处理。
+ -
具体实现是根据任务实例的json解析优先级,然后把**流程实例优先级_流程实例id_任务优先级_任务id**信息保存在ZooKeeper任务队列中,当从任务队列获取的时候,通过字符串比较即可得出最需要优先执行的任务
+
+ -
其中流程定义的优先级是考虑到有些流程需要先于其他流程进行处理,这个可以在流程启动或者定时启动时配置,共有5级,依次为HIGHEST、HIGH、MEDIUM、LOW、LOWEST。如下图
+ <p align="center">
+ <img
src="https://analysys.github.io/easyscheduler_docs_cn/images/process_priority.png"
alt="流程优先级配置" width="40%" />
+ </p>
+
+ - 任务的优先级也分为5级,依次为HIGHEST、HIGH、MEDIUM、LOW、LOWEST。如下图
+ <p align="center">
+ <img
src="https://analysys.github.io/easyscheduler_docs_cn/images/task_priority.png"
alt="任务优先级配置" width="35%" />
+ </p>
+
+
+##### 六、Logback和gRPC实现日志访问
+
+- 由于Web(UI)和Worker不一定在同一台机器上,所以查看日志不能像查询本地文件那样。有两种方案:
+ - 将日志放到ES搜索引擎上
+ - 通过gRPC通信获取远程日志信息
+
+- 介于考虑到尽可能的DolphinScheduler的轻量级性,所以选择了gRPC实现远程访问日志信息。
+
+ <p align="center">
+ <img src="https://analysys.github.io/easyscheduler_docs_cn/images/grpc.png"
alt="grpc远程访问" width="50%" />
+ </p>
+
+
+- 我们使用自定义Logback的FileAppender和Filter功能,实现每个任务实例生成一个日志文件。
+- FileAppender主要实现如下:
+
+ ```java
+ /**
+ * task log appender
+ */
+ public class TaskLogAppender extends FileAppender<ILoggingEvent {
+
+ ...
+
+ @Override
+ protected void append(ILoggingEvent event) {
+
+ if (currentlyActiveFile == null){
+ currentlyActiveFile = getFile();
+ }
+ String activeFile = currentlyActiveFile;
+ // thread name:
taskThreadName-processDefineId_processInstanceId_taskInstanceId
+ String threadName = event.getThreadName();
+ String[] threadNameArr = threadName.split("-");
+ // logId = processDefineId_processInstanceId_taskInstanceId
+ String logId = threadNameArr[1];
+ ...
+ super.subAppend(event);
+ }
+}
+ ```
+
+
+以/流程定义id/流程实例id/任务实例id.log的形式生成日志
+
+- 过滤匹配以TaskLogInfo开始的线程名称:
+
+- TaskLogFilter实现如下:
+
+ ```java
+ /**
+ * task log filter
+ */
+public class TaskLogFilter extends Filter<ILoggingEvent {
+
+ @Override
+ public FilterReply decide(ILoggingEvent event) {
+ if (event.getThreadName().startsWith("TaskLogInfo-")){
+ return FilterReply.ACCEPT;
+ }
+ return FilterReply.DENY;
+ }
+}
+ ```
+
+### 总结
+本文从调度出发,初步介绍了大数据分布式工作流调度系统--DolphinScheduler的架构原理及实现思路。未完待续
+
+
diff --git a/docs/zh-cn/1.2.1/cluster-deployment.md
b/docs/zh-cn/1.2.1/cluster-deployment.md
new file mode 100644
index 0000000..73f6926
--- /dev/null
+++ b/docs/zh-cn/1.2.1/cluster-deployment.md
@@ -0,0 +1,379 @@
+# 集群部署(Cluster)
+
+1.2.1之前DolphinScheduler集群部署分为后端部署和前端部署两部分,1.2.1合并了前后端:
+
+# 1、集群部署
+
+### 1.1 : 基础软件安装(必装项请自行安装)
+
+ * PostgreSQL (8.2.15+) or Mysql (5.6或者5.7系列) : 两者任选其一即可
+ * [JDK](https://www.oracle.com/technetwork/java/javase/downloads/index.html)
(1.8+) : 必装,请安装好后在/etc/profile下配置 JAVA_HOME 及 PATH 变量
+ * ZooKeeper (3.4.6+) :必装
+ * Hadoop (2.6+) or MinIO :选装,如果需要用到资源上传功能,可以选择上传到Hadoop or MinIO上
+
+```markdown
+ 注意:DolphinScheduler本身不依赖Hadoop、Hive、Spark,仅是会调用他们的Client,用于对应任务的提交。
+```
+
+### 1.2 : 下载后端tar.gz包
+
+- 请下载最新版本的后端安装包至服务器部署目录,比如创建 /opt/dolphinscheduler 做为安装部署目录,下载地址:
[下载](https://dolphinscheduler.apache.org/zh-cn/docs/release/download.html)
(以1.2.1版本为例),下载后上传tar包到该目录中,并进行解压
+
+```shell
+# 创建部署目录
+mkdir -p /opt/dolphinscheduler;
+cd /opt/dolphinscheduler;
+# 解压缩
+tar -zxvf apache-dolphinscheduler-incubating-1.2.1-dolphinscheduler-bin.tar.gz
-C /opt/dolphinscheduler;
+
+mv apache-dolphinscheduler-incubating-1.2.1-dolphinscheduler-bin
dolphinscheduler-bin
+```
+
+### 1.3:创建部署用户和hosts映射
+
+-
在**所有**部署调度的机器上创建部署用户,并且一定要配置sudo免密。假如我们计划在ds1,ds2,ds3,ds4这4台机器上部署调度,首先需要在每台机器上都创建部署用户
+
+```shell
+# 设置用户名,请自行修改,后面以dolphinscheduler为例
+useradd dolphinscheduler;
+
+# 设置用户密码,请自行修改,后面以dolphinscheduler123为例
+echo "dolphinscheduler123" | passwd --stdin dolphinscheduler
+
+# 配置sudo免密
+echo 'dolphinscheduler ALL=(ALL) NOPASSWD: NOPASSWD: ALL' >> /etc/sudoers
+```
+
+```
+ 注意:
+ - 因为是以 sudo -u {linux-user} 切换不同linux用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的。
+ - 如果发现/etc/sudoers文件中有"Default requiretty"这行,也请注释掉
+ - 如果用到资源上传的话,还需要在`HDFS或者MinIO`上给该部署用户分配读写的权限
+```
+
+### 1.4 : 配置hosts映射和ssh打通及修改目录权限
+
+- 以第一台机器(hostname为ds1)作为部署机,在ds1上配置所有待部署机器的hosts, 在ds1以root登录
+
+ ```shell
+ vi /etc/hosts
+
+ #add ip hostname
+ 192.168.xxx.xxx ds1
+ 192.168.xxx.xxx ds2
+ 192.168.xxx.xxx ds3
+ 192.168.xxx.xxx ds4
+ ```
+
+ *注意:请删掉或者注释掉127.0.0.1这行*
+
+- 同步ds1上的/etc/hosts到所有部署机器
+
+ ```shell
+ for ip in ds2 ds3; #请将此处ds2 ds3替换为自己要部署的机器的hostname
+ do
+ sudo scp -r /etc/hosts $ip:/etc/ #在运行中需要输入root密码
+ done
+ ```
+
+ *备注:当然 通过`sshpass -p xxx sudo scp -r /etc/hosts $ip:/etc/`就可以省去输入密码了*
+
+ > centos下sshpass的安装:
+ >
+ > 1. 先安装epel
+ >
+ > yum install -y epel-release
+ >
+ > yum repolist
+ >
+ > 2. 安装完成epel之后,就可以按照sshpass了
+ >
+ > yum install -y sshpass
+ >
+ >
+
+- 在ds1上,切换到部署用户并配置ssh本机免密登录
+
+ ```shell
+ su dolphinscheduler;
+
+ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
+ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
+ chmod 600 ~/.ssh/authorized_keys
+ ```
+ 注意:*正常设置后,dolphinscheduler用户在执行命令`ssh localhost` 是不需要再输入密码的*
+
+
+
+- 在ds1上,配置部署用户dolphinscheduler ssh打通到其他待部署的机器
+
+ ```shell
+ su dolphinscheduler;
+ for ip in ds2 ds3; #请将此处ds2 ds3替换为自己要部署的机器的hostname
+ do
+ ssh-copy-id $ip #该操作执行过程中需要手动输入dolphinscheduler用户的密码
+ done
+ # 当然 通过 sshpass -p xxx ssh-copy-id $ip 就可以省去输入密码了
+ ```
+
+- 在ds1上,修改目录权限,使得部署用户对dolphinscheduler-bin目录有操作权限
+
+ ```shell
+ sudo chown -R dolphinscheduler:dolphinscheduler dolphinscheduler-bin
+ ```
+
+### 1.5 : 数据库初始化
+
+-
进入数据库,默认数据库是PostgreSQL,如选择Mysql的话,后续需要添加mysql-connector-java驱动包到DolphinScheduler的lib目录下,这里以mysql为例
+```
+mysql -uroot -p
+```
+
+- 进入数据库命令行窗口后,执行数据库初始化命令,设置访问账号和密码。**注: {user} 和 {password}
需要替换为具体的数据库用户名和密码**
+
+ ``` mysql
+ mysql> CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT
COLLATE utf8_general_ci;
+ mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'%'
IDENTIFIED BY '{password}';
+ mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'localhost'
IDENTIFIED BY '{password}';
+ mysql> flush privileges;
+ ```
+
+- 创建表和导入基础数据
+
+ - 修改 conf 目录下 application-dao.properties 中的下列配置
+
+ ```shell
+ vi conf/application-dao.properties
+ ```
+
+ - 如果选择 Mysql,请注释掉 PostgreSQL 相关配置(反之同理), 还需要手动添加 [[ mysql-connector-java
驱动 jar ](https://downloads.mysql.com/archives/c-j/)] 包到 lib
目录下,这里下载的是mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息
+
+ ```properties
+ #postgre
+ #spring.datasource.driver-class-name=org.postgresql.Driver
+ #spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler
+ # mysql
+ spring.datasource.driver-class-name=com.mysql.jdbc.Driver
+
spring.datasource.url=jdbc:mysql://xxx:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8
需要修改ip
+ spring.datasource.username=xxx
需要修改为上面的{user}值
+ spring.datasource.password=xxx
需要修改为上面的{password}值
+ ```
+
+ - 修改并保存完后,执行 script 目录下的创建表及导入基础数据脚本
+
+ ```shell
+ sh script/create-dolphinscheduler.sh
+ ```
+
+ *注意: 如果执行上述脚本报 ”/bin/java: No such file or directory“
错误,请在/etc/profile下配置 JAVA_HOME 及 PATH 变量*
+
+### 1.6 : 修改运行参数
+
+- 修改 conf/env 目录下的 `.dolphinscheduler_env.sh` 环境变量(以相关用到的软件都安装在/opt/soft下为例)
+
+ ```shell
+ export HADOOP_HOME=/opt/soft/hadoop
+ export HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop
+ #export SPARK_HOME1=/opt/soft/spark1
+ export SPARK_HOME2=/opt/soft/spark2
+ export PYTHON_HOME=/opt/soft/python
+ export JAVA_HOME=/opt/soft/java
+ export HIVE_HOME=/opt/soft/hive
+ export FLINK_HOME=/opt/soft/flink
+ export
PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH:$FLINK_HOME/bin:$PATH
+
+ ```
+
+ `注: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉`
+
+- 将jdk软链到/usr/bin/java下(仍以 JAVA_HOME=/opt/soft/java 为例)
+
+ ```shell
+ sudo ln -s /opt/soft/java/bin/java /usr/bin/java
+ ```
+
+ - 修改一键部署脚本 `install.sh`中的各参数,特别注意以下参数的配置
+
+ ```shell
+ # 这里填 mysql or postgresql
+ dbtype="mysql"
+
+ # 数据库连接地址
+ dbhost="192.168.xx.xx:3306"
+
+ # 数据库名
+ dbname="dolphinscheduler"
+
+ # 数据库用户名,此处需要修改为上面设置的{user}具体值
+ username="xxx"
+
+ # 数据库密码, 如果有特殊字符,请使用\转义,需要修改为上面设置的{passowrd}具体值
+ passowrd="xxx"
+
+ #将DS安装到哪个目录,如: /opt/soft/dolphinscheduler,不同于现在的目录
+ installPath="/opt/soft/dolphinscheduler"
+
+ #使用哪个用户部署,使用1.3小节创建的用户
+ deployUser="dolphinscheduler"
+
+ #zookeeper地址
+ zkQuorum="192.168.xx.xx:2181,192.168.xx.xx:2181,192.168.xx.xx:2181"
+
+ #在哪些机器上部署DS服务
+ ips="ds1,ds2,ds3,ds4"
+
+ #master服务部署在哪台机器上
+ masters="ds1,ds2"
+
+ #worker服务部署在哪台机器上
+ workers="ds3,ds4"
+
+ #报警服务部署在哪台机器上
+ alertServer="ds2"
+
+ #后端api服务部署在在哪台机器上
+ apiServers="ds1"
+
+
+ # 邮件配置,以qq邮箱为例
+ # 邮件协议
+ mailProtocol="SMTP"
+
+ # 邮件服务地址
+ mailServerHost="smtp.exmail.qq.com"
+
+ # 邮件服务端口
+ mailServerPort="25"
+
+ # mailSender和mailUser配置成一样即可
+ # 发送者
+ mailSender="[email protected]"
+
+ # 发送用户
+ mailUser="[email protected]"
+
+ # 邮箱密码
+ mailPassword="xxx"
+
+ # TLS协议的邮箱设置为true,否则设置为false
+ starttlsEnable="true"
+
+ # 邮件服务地址值,参考上面 mailServerHost
+ sslTrust="smtp.exmail.qq.com"
+
+ # 开启SSL协议的邮箱配置为true,否则为false。注意: starttlsEnable和sslEnable不能同时为true
+ sslEnable="false"
+
+ # excel下载路径
+ xlsFilePath="/tmp/xls"
+
+ #
业务用到的比如sql等资源文件上传到哪里,可以设置:HDFS,S3,NONE。如果想上传到HDFS,请配置为HDFS;如果不需要资源上传功能请选择NONE。
+ resUploadStartupType="HDFS"
+
+
#如果上传资源保存想保存在hadoop上,hadoop集群的NameNode启用了HA的话,需要将core-site.xml和hdfs-site.xml放到conf目录下,本例即是放到/opt/dolphinscheduler/conf下面,并配置namenode
cluster名称;如果NameNode不是HA,则只需要将mycluster修改为具体的ip或者主机名即可
+ defaultFS="hdfs://mycluster:8020"
+
+
+ #
如果ResourceManager是HA,则配置为ResourceManager节点的主备ip或者hostname,比如"192.168.xx.xx,192.168.xx.xx",否则如果是单ResourceManager或者根本没用到yarn,请配置yarnHaIps=""即可,我这里没用到yarn,配置为""
+ yarnHaIps=""
+
+ # 如果是单ResourceManager,则配置为ResourceManager节点ip或主机名,否则保持默认值即可。我这里没用到yarn,保持默认
+ singleYarnIp="ark1"
+ ```
+
+ *特别注意:*
+
+ - 如果需要用资源上传到Hadoop集群功能, 并且Hadoop集群的NameNode 配置了 HA的话 ,需要开启
HDFS类型的资源上传,同时需要将Hadoop集群下的core-site.xml和hdfs-site.xml复制到/opt/dolphinscheduler/conf,非NameNode
HA跳过次步骤
+
+### 1.7 : 执行install.sh部署脚本
+
+- 切换到部署用户dolphinscheduler,然后执行一键部署脚本
+
+ `sh install.sh`
+
+ ```
+ 注意:
+ 第一次部署的话,在运行中第3步`3,stop server`出现5次以下信息,此信息可以忽略
+ sh: bin/dolphinscheduler-daemon.sh: No such file or directory
+ ```
+
+- 脚本完成后,会启动以下5个服务,使用`jps`命令查看服务是否启动(`jps`为`java JDK`自带)
+
+```aidl
+ MasterServer ----- master服务
+ WorkerServer ----- worker服务
+ LoggerServer ----- logger服务
+ ApiApplicationServer ----- api服务
+ AlertServer ----- alert服务
+```
+如果以上服务都正常启动,说明自动部署成功
+
+
+部署成功后,可以进行日志查看,日志统一存放于logs文件夹内
+
+```日志路径
+ logs/
+ ├── dolphinscheduler-alert-server.log
+ ├── dolphinscheduler-master-server.log
+ |—— dolphinscheduler-worker-server.log
+ |—— dolphinscheduler-api-server.log
+ |—— dolphinscheduler-logger-server.log
+```
+### 1.8 : 登录系统
+
+- 访问前端页面地址: http://192.168.xx.xx:12345/dolphinscheduler ,出现前端登录页面,接口地址(自行修改)
+
+ ```html
+ <p align="center">
+ <img src="/img/login.png" width="60%" />
+ </p>
+ ```
+
+
+# 2、启停服务
+
+* 一键停止集群所有服务
+
+ ` sh ./bin/stop-all.sh`
+
+* 一键开启集群所有服务
+
+ ` sh ./bin/start-all.sh`
+
+* 启停Master
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start master-server
+sh ./bin/dolphinscheduler-daemon.sh stop master-server
+```
+
+* 启停Worker
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start worker-server
+sh ./bin/dolphinscheduler-daemon.sh stop worker-server
+```
+
+* 启停Api
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start api-server
+sh ./bin/dolphinscheduler-daemon.sh stop api-server
+```
+
+* 启停Logger
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start logger-server
+sh ./bin/dolphinscheduler-daemon.sh stop logger-server
+```
+
+* 启停Alert
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start alert-server
+sh ./bin/dolphinscheduler-daemon.sh stop alert-server
+```
+
+`注:服务用途请具体参见《系统架构设计》小节`
+
diff --git a/docs/zh-cn/1.2.1/hardware-environment.md
b/docs/zh-cn/1.2.1/hardware-environment.md
new file mode 100644
index 0000000..ddb309b
--- /dev/null
+++ b/docs/zh-cn/1.2.1/hardware-environment.md
@@ -0,0 +1,48 @@
+# 软硬件环境建议配置
+
+DolphinScheduler 作为一款开源分布式工作流任务调度系统,可以很好的部署和运行在 Intel
架构服务器环境及主流虚拟化环境下,并支持主流的Linux操作系统环境。
+
+## 1. Linux 操作系统版本要求
+
+| 操作系统 | 版本 |
+| :----------------------- | :----------: |
+| Red Hat Enterprise Linux | 7.0 及以上 |
+| CentOS | 7.0 及以上 |
+| Oracle Enterprise Linux | 7.0 及以上 |
+| Ubuntu LTS | 16.04 及以上 |
+
+> **注意:**
+>以上 Linux 操作系统可运行在物理服务器以及 VMware、KVM、XEN 主流虚拟化环境上。
+
+## 2. 服务器建议配置
+DolphinScheduler 支持运行在 Intel x86-64 架构的 64 位通用硬件服务器平台。对生产环境的服务器硬件配置有以下建议:
+### 生产环境
+
+| **CPU** | **内存** | **硬盘类型** | **网络** | **实例数量** |
+| --- | --- | --- | --- | --- |
+| 4核+ | 8 GB+ | SAS | 千兆网卡 | 1+ |
+
+> **注意:**
+> - 以上建议配置为部署 DolphinScheduler 的最低配置,生产环境强烈推荐使用更高的配置。
+> - 硬盘大小配置建议 50GB+ ,系统盘和数据盘分开。
+
+
+## 3. 网络要求
+
+DolphinScheduler正常运行提供如下的网络端口配置:
+
+| 组件 | 默认端口 | 说明 |
+| --- | --- | --- |
+| MasterServer | 5566 | 非通信端口,只需本机端口不冲突即可 |
+| WorkerServer | 7788 | 非通信端口,只需本机端口不冲突即可 |
+| ApiApplicationServer | 12345 | 提供后端通信端口 |
+| nginx | 8888 | 提供 UI 端通信端口 |
+
+> **注意:**
+> - MasterServer 和 WorkerServer 不需要开启网络间通信,只需本机端口不冲突即可
+> - 管理员可根据实际环境中 DolphinScheduler 组件部署方案,在网络侧和主机侧开放相关端口
+
+## 4. 客户端 Web 浏览器要求
+
+DolphinScheduler 推荐 Chrome 以及使用 Chrome 内核的较新版本浏览器访问前端可视化操作界面。
+
diff --git a/docs/zh-cn/1.2.1/metadata-1.2.md b/docs/zh-cn/1.2.1/metadata-1.2.md
new file mode 100644
index 0000000..b789a92
--- /dev/null
+++ b/docs/zh-cn/1.2.1/metadata-1.2.md
@@ -0,0 +1,184 @@
+# Dolphin Scheduler 1.2元数据文档
+
+<a name="25Ald"></a>
+### 表概览
+| 表名 | 表信息 |
+| :---: | :---: |
+| t_ds_access_token | 访问ds后端的token |
+| t_ds_alert | 告警信息 |
+| t_ds_alertgroup | 告警组 |
+| t_ds_command | 执行命令 |
+| t_ds_datasource | 数据源 |
+| t_ds_error_command | 错误命令 |
+| t_ds_process_definition | 流程定义 |
+| t_ds_process_instance | 流程实例 |
+| t_ds_project | 项目 |
+| t_ds_queue | 队列 |
+| t_ds_relation_datasource_user | 用户关联数据源 |
+| t_ds_relation_process_instance | 子流程 |
+| t_ds_relation_project_user | 用户关联项目 |
+| t_ds_relation_resources_user | 用户关联资源 |
+| t_ds_relation_udfs_user | 用户关联UDF函数 |
+| t_ds_relation_user_alertgroup | 用户关联告警组 |
+| t_ds_resources | 资源文件 |
+| t_ds_schedules | 流程定时调度 |
+| t_ds_session | 用户登录的session |
+| t_ds_task_instance | 任务实例 |
+| t_ds_tenant | 租户 |
+| t_ds_udfs | UDF资源 |
+| t_ds_user | 用户 |
+| t_ds_version | ds版本信息 |
+| t_ds_worker_group | worker分组 |
+
+<a name="VNVGr"></a>
+### 用户 队列 数据源
+
+
+- 一个租户下可以有多个用户<br />
+-
t_ds_user中的queue字段存储的是队列表中的queue_name信息,t_ds_tenant下存的是queue_id,在流程定义执行过程中,用户队列优先级最高,用户队列为空则采用租户队列<br
/>
+-
t_ds_datasource表中的user_id字段表示创建该数据源的用户,t_ds_relation_datasource_user中的user_id表示,对数据源有权限的用户<br
/>
+<a name="HHyGV"></a>
+### 项目 资源 告警
+
+
+- 一个用户可以有多个项目,用户项目授权通过t_ds_relation_project_user表完成project_id和user_id的关系绑定<br
/>
+-
t_ds_projcet表中的user_id表示创建该项目的用户,t_ds_relation_project_user表中的user_id表示对项目有权限的用户<br
/>
+-
t_ds_resources表中的user_id表示创建该资源的用户,t_ds_relation_resources_user中的user_id表示对资源有权限的用户<br
/>
+-
t_ds_udfs表中的user_id表示创建该UDF的用户,t_ds_relation_udfs_user表中的user_id表示对UDF有权限的用户<br
/>
+<a name="Bg2Sn"></a>
+### 命令 流程 任务
+<br
/>
+
+- 一个项目有多个流程定义,一个流程定义可以生成多个流程实例,一个流程实例可以生成多个任务实例<br />
+- t_ds_schedulers表存放流程定义的定时调度信息<br />
+-
t_ds_relation_process_instance表存放的数据用于处理流程定义中含有子流程的情况,parent_process_instance_id表示含有子流程的主流程实例id,process_instance_id表示子流程实例的id,parent_task_instance_id表示子流程节点的任务实例id,流程实例表和任务实例表分别对应t_ds_process_instance表和t_ds_task_instance表
+<a name="Pv25P"></a>
+### 核心表Schema
+<a name="32Jzd"></a>
+#### t_ds_process_definition
+| 字段 | 类型 | 注释 |
+| --- | --- | --- |
+| id | int | 主键 |
+| name | varchar | 流程定义名称 |
+| version | int | 流程定义版本 |
+| release_state | tinyint | 流程定义的发布状态:0 未上线 1已上线 |
+| project_id | int | 项目id |
+| user_id | int | 流程定义所属用户id |
+| process_definition_json | longtext | 流程定义json串 |
+| description | text | 流程定义描述 |
+| global_params | text | 全局参数 |
+| flag | tinyint | 流程是否可用:0 不可用,1 可用 |
+| locations | text | 节点坐标信息 |
+| connects | text | 节点连线信息 |
+| receivers | text | 收件人 |
+| receivers_cc | text | 抄送人 |
+| create_time | datetime | 创建时间 |
+| timeout | int | 超时时间 |
+| tenant_id | int | 租户id |
+| update_time | datetime | 更新时间 |
+
+<a name="e6jfz"></a>
+#### t_ds_process_instance
+| 字段 | 类型 | 注释 |
+| --- | --- | --- |
+| id | int | 主键 |
+| name | varchar | 流程实例名称 |
+| process_definition_id | int | 流程定义id |
+| state | tinyint | 流程实例状态:0 提交成功,1 正在运行,2 准备暂停,3 暂停,4 准备停止,5 停止,6 失败,7 成功,8
需要容错,9 kill,10 等待线程,11 等待依赖完成 |
+| recovery | tinyint | 流程实例容错标识:0 正常,1 需要被容错重启 |
+| start_time | datetime | 流程实例开始时间 |
+| end_time | datetime | 流程实例结束时间 |
+| run_times | int | 流程实例运行次数 |
+| host | varchar | 流程实例所在的机器 |
+| command_type | tinyint | 命令类型:0 启动工作流,1 从当前节点开始执行,2 恢复被容错的工作流,3 恢复暂停流程,4
从失败节点开始执行,5 补数,6 调度,7 重跑,8 暂停,9 停止,10 恢复等待线程 |
+| command_param | text | 命令的参数(json格式) |
+| task_depend_type | tinyint | 节点依赖类型:0 当前节点,1 向前执行,2 向后执行 |
+| max_try_times | tinyint | 最大重试次数 |
+| failure_strategy | tinyint | 失败策略 0 失败后结束,1 失败后继续 |
+| warning_type | tinyint | 告警类型:0 不发,1 流程成功发,2 流程失败发,3 成功失败都发 |
+| warning_group_id | int | 告警组id |
+| schedule_time | datetime | 预期运行时间 |
+| command_start_time | datetime | 开始命令时间 |
+| global_params | text | 全局参数(固化流程定义的参数) |
+| process_instance_json | longtext | 流程实例json(copy的流程定义的json) |
+| flag | tinyint | 是否可用,1 可用,0不可用 |
+| update_time | timestamp | 更新时间 |
+| is_sub_process | int | 是否是子工作流 1 是,0 不是 |
+| executor_id | int | 命令执行用户 |
+| locations | text | 节点坐标信息 |
+| connects | text | 节点连线信息 |
+| history_cmd | text | 历史命令,记录所有对流程实例的操作 |
+| dependence_schedule_times | text | 依赖节点的预估时间 |
+| process_instance_priority | int | 流程实例优先级:0 Highest,1 High,2 Medium,3 Low,4
Lowest |
+| worker_group_id | int | 任务指定运行的worker分组 |
+| timeout | int | 超时时间 |
+| tenant_id | int | 租户id |
+
+<a name="IvHEc"></a>
+#### t_ds_task_instance
+| 字段 | 类型 | 注释 |
+| --- | --- | --- |
+| id | int | 主键 |
+| name | varchar | 任务名称 |
+| task_type | varchar | 任务类型 |
+| process_definition_id | int | 流程定义id |
+| process_instance_id | int | 流程实例id |
+| task_json | longtext | 任务节点json |
+| state | tinyint | 任务实例状态:0 提交成功,1 正在运行,2 准备暂停,3 暂停,4 准备停止,5 停止,6 失败,7 成功,8
需要容错,9 kill,10 等待线程,11 等待依赖完成 |
+| submit_time | datetime | 任务提交时间 |
+| start_time | datetime | 任务开始时间 |
+| end_time | datetime | 任务结束时间 |
+| host | varchar | 执行任务的机器 |
+| execute_path | varchar | 任务执行路径 |
+| log_path | varchar | 任务日志路径 |
+| alert_flag | tinyint | 是否告警 |
+| retry_times | int | 重试次数 |
+| pid | int | 进程pid |
+| app_link | varchar | yarn app id |
+| flag | tinyint | 是否可用:0 不可用,1 可用 |
+| retry_interval | int | 重试间隔 |
+| max_retry_times | int | 最大重试次数 |
+| task_instance_priority | int | 任务实例优先级:0 Highest,1 High,2 Medium,3 Low,4
Lowest |
+| worker_group_id | int | 任务指定运行的worker分组 |
+
+<a name="pPQkU"></a>
+#### t_ds_schedules
+| 字段 | 类型 | 注释 |
+| --- | --- | --- |
+| id | int | 主键 |
+| process_definition_id | int | 流程定义id |
+| start_time | datetime | 调度开始时间 |
+| end_time | datetime | 调度结束时间 |
+| crontab | varchar | crontab 表达式 |
+| failure_strategy | tinyint | 失败策略: 0 结束,1 继续 |
+| user_id | int | 用户id |
+| release_state | tinyint | 状态:0 未上线,1 上线 |
+| warning_type | tinyint | 告警类型:0 不发,1 流程成功发,2 流程失败发,3 成功失败都发 |
+| warning_group_id | int | 告警组id |
+| process_instance_priority | int | 流程实例优先级:0 Highest,1 High,2 Medium,3 Low,4
Lowest |
+| worker_group_id | int | 任务指定运行的worker分组 |
+| create_time | datetime | 创建时间 |
+| update_time | datetime | 更新时间 |
+
+<a name="TkQzn"></a>
+#### t_ds_command
+| 字段 | 类型 | 注释 |
+| --- | --- | --- |
+| id | int | 主键 |
+| command_type | tinyint | 命令类型:0 启动工作流,1 从当前节点开始执行,2 恢复被容错的工作流,3 恢复暂停流程,4
从失败节点开始执行,5 补数,6 调度,7 重跑,8 暂停,9 停止,10 恢复等待线程 |
+| process_definition_id | int | 流程定义id |
+| command_param | text | 命令的参数(json格式) |
+| task_depend_type | tinyint | 节点依赖类型:0 当前节点,1 向前执行,2 向后执行 |
+| failure_strategy | tinyint | 失败策略:0结束,1继续 |
+| warning_type | tinyint | 告警类型:0 不发,1 流程成功发,2 流程失败发,3 成功失败都发 |
+| warning_group_id | int | 告警组 |
+| schedule_time | datetime | 预期运行时间 |
+| start_time | datetime | 开始时间 |
+| executor_id | int | 执行用户id |
+| dependence | varchar | 依赖字段 |
+| update_time | datetime | 更新时间 |
+| process_instance_priority | int | 流程实例优先级:0 Highest,1 High,2 Medium,3 Low,4
Lowest |
+| worker_group_id | int | 任务指定运行的worker分组 |
+
+
+
diff --git a/docs/zh-cn/1.2.1/plugin-development.md
b/docs/zh-cn/1.2.1/plugin-development.md
new file mode 100644
index 0000000..ef36b9c
--- /dev/null
+++ b/docs/zh-cn/1.2.1/plugin-development.md
@@ -0,0 +1,54 @@
+## 任务插件开发
+
+提醒:目前任务插件开发暂不支持热部署
+
+### 基于SHELL的任务
+
+#### 基于YARN的计算(参见MapReduceTask)
+
+- 需要在 **cn.dolphinscheduler.server.worker.task** 下的 **TaskManager**
类中创建自定义任务(也需在TaskType注册对应的任务类型)
+- 需要继承**cn.dolphinscheduler.server.worker.task** 下的 **AbstractYarnTask**
+- 构造方法调度 **AbstractYarnTask** 构造方法
+- 继承 **AbstractParameters** 自定义任务参数实体
+- 重写 **AbstractTask** 的 **init** 方法中解析**自定义任务参数**
+- 重写 **buildCommand** 封装command
+
+
+
+#### 基于非YARN的计算(参见ShellTask)
+- 需要在 **cn.dolphinscheduler.server.worker.task** 下的 **TaskManager** 中创建自定义任务
+
+- 需要继承**cn.dolphinscheduler.server.worker.task** 下的 **AbstractTask**
+
+- 构造方法中实例化 **ShellCommandExecutor**
+
+ ```
+ public ShellTask(TaskProps props, Logger logger) {
+ super(props, logger);
+
+ this.taskDir = props.getTaskDir();
+
+ this.processTask = new ShellCommandExecutor(this::logHandle,
+ props.getTaskDir(), props.getTaskAppId(),
+ props.getTenantCode(), props.getEnvFile(), props.getTaskStartTime(),
+ props.getTaskTimeout(), logger);
+ this.processDao = DaoFactory.getDaoInstance(ProcessDao.class);
+ }
+ ```
+
+ 传入自定义任务的 **TaskProps**和自定义**Logger**,TaskProps 封装了任务的信息,Logger分装了自定义日志信息
+
+- 继承 **AbstractParameters** 自定义任务参数实体
+
+- 重写 **AbstractTask** 的 **init** 方法中解析**自定义任务参数实体**
+
+- 重写 **handle** 方法,调用 **ShellCommandExecutor** 的 **run**
方法,第一个参数传入自己的**command**,第二个参数传入 ProcessDao,设置相应的 **exitStatusCode**
+
+### 基于非SHELL的任务(参见SqlTask)
+
+- 需要在 **cn.dolphinscheduler.server.worker.task** 下的 **TaskManager** 中创建自定义任务
+- 需要继承**cn.dolphinscheduler.server.worker.task** 下的 **AbstractTask**
+- 继承 **AbstractParameters** 自定义任务参数实体
+- 构造方法或者重写 **AbstractTask** 的 **init** 方法中,解析自定义任务参数实体
+- 重写 **handle** 方法实现业务逻辑并设置相应的**exitStatusCode**
+
diff --git a/docs/zh-cn/1.2.1/quick-start.md b/docs/zh-cn/1.2.1/quick-start.md
new file mode 100644
index 0000000..b57b21a
--- /dev/null
+++ b/docs/zh-cn/1.2.1/quick-start.md
@@ -0,0 +1,58 @@
+# 快速上手
+
+* 管理员用户登录
+ >地址:192.168.xx.xx:8888 用户名密码:admin/dolphinscheduler123
+
+<p align="center">
+ <img src="/img/login.png" width="60%" />
+ </p>
+
+* 创建队列
+<p align="center">
+ <img src="/img/create-queue.png" width="60%" />
+ </p>
+
+ * 创建租户
+ <p align="center">
+ <img src="/img/addtenant.png" width="60%" />
+ </p>
+
+ * 创建普通用户
+<p align="center">
+ <img src="/img/useredit2.png" width="60%" />
+ </p>
+
+ * 创建告警组
+ <p align="center">
+ <img src="/img/mail_edit.png" width="60%" />
+ </p>
+
+ * 创建Worker分组
+ <p align="center">
+ <img src="/img/worker_group.png" width="60%" />
+ </p>
+
+ * 创建token令牌
+ <p align="center">
+ <img src="/img/creat_token.png" width="60%" />
+ </p>
+
+ * 使用普通用户登录
+ > 点击右上角用户名“退出”,重新使用普通用户登录。
+
+ * 项目管理->创建项目->点击项目名称
+<p align="center">
+ <img src="/img/project.png" width="60%" />
+ </p>
+
+ * 点击工作流定义->创建工作流定义->上线工作流定义
+
+<p align="center">
+ <img src="/img/dag1.png" width="60%" />
+ </p>
+
+ * 运行工作流定义->点击工作流实例->点击工作流实例名称->双击任务节点->查看任务执行日志
+
+ <p align="center">
+ <img src="/img/task-log.png" width="60%" />
+</p>
\ No newline at end of file
diff --git a/docs/zh-cn/1.2.1/standalone-deployment.md
b/docs/zh-cn/1.2.1/standalone-deployment.md
new file mode 100644
index 0000000..6fbbc4a
--- /dev/null
+++ b/docs/zh-cn/1.2.1/standalone-deployment.md
@@ -0,0 +1,451 @@
+# 单机部署(Standalone)
+
+DolphinScheduler单机部署分为后端部署和前端部署两部分:
+
+# 1、后端部署
+
+### 1.1 : 基础软件安装(必装项请自行安装)
+
+ * PostgreSQL (8.2.15+) or Mysql (5.6或者5.7系列) : 两者任选其一即可
+ * [JDK](https://www.oracle.com/technetwork/java/javase/downloads/index.html)
(1.8+) : 必装,请安装好后在/etc/profile下配置 JAVA_HOME 及 PATH 变量
+ * ZooKeeper (3.4.6+) :必装
+ * Hadoop (2.6+) or MinIO :选装,
如果需要用到资源上传功能,针对单机可以选择本地文件目录作为上传文件夹(此操作不需要部署Hadoop);当然也可以选择上传到Hadoop or MinIO集群上
+
+```markdown
+ 注意:DolphinScheduler本身不依赖Hadoop、Hive、Spark,仅是会调用他们的Client,用于对应任务的运行。
+```
+
+### 1.2 : 下载后端tar.gz包
+
+- 请下载最新版本的后端安装包至服务器部署目录,比如创建 /opt/dolphinscheduler 做为安装部署目录,下载地址:
[下载](https://dolphinscheduler.apache.org/zh-cn/docs/release/download.html)
(以1.2.0版本为例),下载后上传tar包到该目录中,并进行解压
+
+```shell
+# 创建部署目录
+mkdir -p /opt/dolphinscheduler;
+cd /opt/dolphinscheduler;
+# 解压缩
+tar -zxvf
apache-dolphinscheduler-incubating-1.2.0-dolphinscheduler-backend-bin.tar.gz -C
/opt/dolphinscheduler;
+
+mv apache-dolphinscheduler-incubating-1.2.0-dolphinscheduler-backend-bin
dolphinscheduler-backend
+```
+
+###1.3:创建部署用户并赋予目录操作权限
+
+- 创建部署用户,并且一定要配置sudo免密。以创建dolphinscheduler用户为例
+
+```shell
+# add user dolphinscheduler
+useradd dolphinscheduler;
+
+# modify user password
+echo "dolphinscheduler" | passwd --stdin dolphinscheduler
+
+# 配置sudo免密
+sed -i '$adolphinscheduler ALL=(ALL) NOPASSWD: NOPASSWD: ALL' /etc/sudoers
+
+# 修改目录权限,使得部署用户对dolphinscheduler-backend目录有操作权限
+chown -R dolphinscheduler:dolphinscheduler dolphinscheduler-backend
+```
+
+```
+ 注意:
+ - 因为任务执行服务是以 sudo -u {linux-user} 切换不同linux用户的方式来实现多租户运行作业,所以部署用户需要有 sudo
权限,而且是免密的。初学习者不理解的话,完全可以暂时忽略这一点
+ - 如果发现/etc/sudoers文件中有"Default requiretty"这行,也请注释掉
+ - 如果用到资源上传的话,还需要给该部署用户分配操作`本地文件系统或者HDFS或者MinIO`的权限
+```
+
+### 1.4 : ssh免密配置
+
+- 切换到部署用户并配置ssh本机免密登录
+
+```shell
+su dolphinscheduler;
+
+ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
+cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
+chmod 600 ~/.ssh/authorized_keys
+```
+注意:*正常设置后,dolphinscheduler用户在执行命令`ssh localhost` 是不需要再输入密码的*
+
+### 1.5 : 数据库初始化
+
+-
进入数据库,默认数据库是PostgreSQL,如选择Mysql的话,后续需要添加mysql-connector-java驱动包到DolphinScheduler的lib目录下
+```
+mysql -uroot -p
+```
+
+- 进入数据库命令行窗口后,执行数据库初始化命令,设置访问账号和密码。**注: {user} 和 {password}
需要替换为具体的数据库用户名和密码**
+
+``` mysql
+mysql> CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT
COLLATE utf8_general_ci;
+mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'%' IDENTIFIED
BY '{password}';
+mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'localhost'
IDENTIFIED BY '{password}';
+mysql> flush privileges;
+```
+
+
+- 创建表和导入基础数据
+
+ - 修改 conf 目录下 application-dao.properties 中的下列配置
+
+ - ```shell
+ vi conf/application-dao.properties
+ ```
+
+ - 如果选择 Mysql,请注释掉 PostgreSQL 相关配置(反之同理), 还需要手动添加 [[ mysql-connector-java
驱动 jar ](https://downloads.mysql.com/archives/c-j/)] 包到 lib
目录下,这里下载的是mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息
+ ```properties
+ # postgre
+ #spring.datasource.driver-class-name=org.postgresql.Driver
+ #spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler
+ # mysql
+ spring.datasource.driver-class-name=com.mysql.jdbc.Driver
+
spring.datasource.url=jdbc:mysql://xxx:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8
需要修改ip,本机localhost即可
+ spring.datasource.username=xxx
需要修改为上面的{user}值
+ spring.datasource.password=xxx
需要修改为上面的{password}值
+ ```
+
+ - 修改并保存完后,执行 script 目录下的创建表及导入基础数据脚本
+
+ ```shell
+ sh script/create-dolphinscheduler.sh
+ ```
+
+ *注意: 如果执行上述脚本报 ”/bin/java: No such file or directory“
错误,请在/etc/profile下配置 JAVA_HOME 及 PATH 变量*
+
+### 1.6 : 修改运行参数
+
+- 修改 conf/env 目录下的 `.dolphinscheduler_env.sh` 环境变量(以相关用到的软件都安装在/opt/soft下为例)
+
+ ```shell
+ export HADOOP_HOME=/opt/soft/hadoop
+ export HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop
+ #export SPARK_HOME1=/opt/soft/spark1
+ export SPARK_HOME2=/opt/soft/spark2
+ export PYTHON_HOME=/opt/soft/python
+ export JAVA_HOME=/opt/soft/java
+ export HIVE_HOME=/opt/soft/hive
+ export FLINK_HOME=/opt/soft/flink
+ export
PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH:$FLINK_HOME/bin:$PATH
+
+ ```
+
+ `注: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉`
+
+- 将jdk软链到/usr/bin/java下(仍以 JAVA_HOME=/opt/soft/java 为例)
+
+ ```shell
+ sudo ln -s /opt/soft/java/bin/java /usr/bin/java
+ ```
+
+ - 修改一键部署脚本 `install.sh`中的各参数,特别注意以下参数的配置
+
+ ```shell
+ # 这里填 mysql or postgresql
+ dbtype="mysql"
+
+ # 数据库连接地址
+ dbhost="localhost:3306"
+
+ # 数据库名
+ dbname="dolphinscheduler"
+
+ # 数据库用户名,此处需要修改为上面设置的{user}具体值
+ username="xxx"
+
+ # 数据库密码, 如果有特殊字符,请使用\转义,需要修改为上面设置的{passowrd}具体值
+ passowrd="xxx"
+
+ #将DS安装到哪个目录,如: /opt/soft/dolphinscheduler,不同于现在的目录
+ installPath="/opt/soft/dolphinscheduler"
+
+ #使用哪个用户部署,使用1.3小节创建的用户
+ deployUser="dolphinscheduler"
+
+ #zookeeper地址,单机本机是localhost:2181,记得把2181端口带上
+ zkQuorum="localhost:2181"
+
+ #在哪些机器上部署DS服务,本机选localhost
+ ips="localhost"
+
+ #master服务部署在哪台机器上
+ masters="localhost"
+
+ #worker服务部署在哪台机器上
+ workers="localhost"
+
+ #报警服务部署在哪台机器上
+ alertServer="localhost"
+
+ #后端api服务部署在在哪台机器上
+ apiServers="localhost"
+
+
+ # 邮件配置,以qq邮箱为例
+ # 邮件协议
+ mailProtocol="SMTP"
+
+ # 邮件服务地址
+ mailServerHost="smtp.exmail.qq.com"
+
+ # 邮件服务端口
+ mailServerPort="25"
+
+ # mailSender和mailUser配置成一样即可
+ # 发送者
+ mailSender="[email protected]"
+
+ # 发送用户
+ mailUser="[email protected]"
+
+ # 邮箱密码
+ mailPassword="xxx"
+
+ # TLS协议的邮箱设置为true,否则设置为false
+ starttlsEnable="true"
+
+ # 邮件服务地址值,参考上面 mailServerHost
+ sslTrust="smtp.exmail.qq.com"
+
+ # 开启SSL协议的邮箱配置为true,否则为false。注意: starttlsEnable和sslEnable不能同时为true
+ sslEnable="false"
+
+ # excel下载路径
+ xlsFilePath="/tmp/xls"
+
+ #
业务用到的比如sql等资源文件上传到哪里,可以设置:HDFS,S3,NONE,单机如果想使用本地文件系统,请配置为HDFS,因为HDFS支持本地文件系统;如果不需要资源上传功能请选择NONE。强调一点:使用本地文件系统不需要部署hadoop
+ resUploadStartupType="HDFS"
+
+ # 这里以保存到本地文件系统为例
+
#注:但是如果你想上传到HDFS的话,NameNode启用了HA,则需要将core-site.xml和hdfs-site.xml放到conf目录下,本例即是放到/opt/dolphinscheduler/conf下面,并配置namenode
cluster名称;如果NameNode不是HA,则修改为具体的ip或者主机名即可
+ defaultFS="file:///data/dolphinscheduler" #hdfs://{具体的ip/主机名}:8020
+
+
+ #
如果ResourceManager是HA,则配置为ResourceManager节点的主备ip或者hostname,比如"192.168.xx.xx,192.168.xx.xx",否则如果是单ResourceManager或者根本没用到yarn,请配置yarnHaIps=""即可,我这里没用到yarn,配置为""
+ yarnHaIps=""
+
+ # 如果是单ResourceManager,则配置为ResourceManager节点ip或主机名,否则保持默认值即可。我这里没用到yarn,保持默认
+ singleYarnIp="ark1"
+
+ # 由于hdfs支持本地文件系统,需要确保本地文件夹存在且有读写权限
+ hdfsPath="/data/dolphinscheduler"
+ ```
+
+ *注:如果打算用到`资源中心`功能,请执行以下命令:*
+
+ ```shell
+ sudo mkdir /data/dolphinscheduler
+ sudo chown -R dolphinscheduler:dolphinscheduler /data/dolphinscheduler
+ ```
+
+### 1.7 : 安装python的zookeeper工具kazoo
+
+- 安装python的 zookeeper 工具 ,`此步骤仅在一键部署时候用到`
+
+```shell
+#安装pip
+sudo yum -y install python-pip; #ubuntu请使用 sudo apt-get install python-pip
+sudo pip install kazoo;
+```
+
+ *注意:如果yum没找到python-pip,也可以通过下面方式安装*
+
+```shell
+sudo curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
+sudo python get-pip.py # 如果是python3,使用sudo python3 get-pip.py
+#然后
+sudo pip install kazoo;
+```
+
+- 切换到部署用户,执行一键部署脚本
+
+ `sh install.sh`
+
+ ```
+ 注意:
+ 第一次部署的话,在运行中第3步`3,stop server`出现5次以下信息,此信息可以忽略
+ sh: bin/dolphinscheduler-daemon.sh: No such file or directory
+ ```
+
+- 脚本完成后,会启动以下5个服务,使用`jps`命令查看服务是否启动(`jps`为`java JDK`自带)
+
+```aidl
+ MasterServer ----- master服务
+ WorkerServer ----- worker服务
+ LoggerServer ----- logger服务
+ ApiApplicationServer ----- api服务
+ AlertServer ----- alert服务
+```
+如果以上服务都正常启动,说明自动部署成功
+
+
+部署成功后,可以进行日志查看,日志统一存放于logs文件夹内
+
+```日志路径
+ logs/
+ ├── dolphinscheduler-alert-server.log
+ ├── dolphinscheduler-master-server.log
+ |—— dolphinscheduler-worker-server.log
+ |—— dolphinscheduler-api-server.log
+ |—— dolphinscheduler-logger-server.log
+```
+
+
+
+# 2、前端部署
+
+请下载最新版本的前端安装包至服务器部署目录,下载地址:
[下载](https://dolphinscheduler.apache.org/zh-cn/docs/release/download.html)
(以1.2.0版本为例),下载后上传tar包到该目录中,并进行解压
+
+```shell
+cd /opt/dolphinscheduler;
+
+tar -zxvf
apache-dolphinscheduler-incubating-1.2.0-dolphinscheduler-front-bin.tar.gz -C
/opt/dolphinscheduler;
+
+mv apache-dolphinscheduler-incubating-1.2.0-dolphinscheduler-front-bin
dolphinscheduler-ui
+```
+
+
+
+**以下两种部署方式任选其一种即可,推荐自动化部署**
+
+### 2.1 自动化部署
+
+- 进入dolphinscheduler-ui目录下执行(`注意:自动化部署会自动下载 nginx`)
+
+ ```shell
+ cd dolphinscheduler-ui;
+ sh ./install-dolphinscheduler-ui.sh;
+ ```
+
+ - 执行后,会在运行中请键入前端端口,默认端口是8888,如果选择默认,请键入y,或者键入其他端口
+ - 然后会让键入跟前端ui交互的api-server的ip
+ - 接着是让键入跟前端ui交互的api-server的port
+ - 接着是操作系统选择
+ - 等待部署完成
+
+- 部署完,为防止资源过大无法上传到资源中心,建议修改nginx上传大小参数,具体如下
+
+ - 添加nginx配置 client_max_body_size 1024m,在http方法体内添加即可
+
+ ```shell
+ vi /etc/nginx/nginx.conf
+
+ # add param
+ client_max_body_size 1024m;
+ ```
+
+ - 然后重启Nginx服务
+
+ ```shell
+ systemctl restart nginx
+ ```
+
+- 访问前端页面地址: http://localhost:8888 ,出现前端登录页面,前端web也安装完成了
+
+ ```html
+ <p align="center">
+ <img src="/img/login.png" width="60%" />
+ </p>
+ ```
+
+### 2.2 手动部署
+- 自行安装nginx,去官网下载: http://nginx.org/en/download.html 或者 `yum install nginx
-y`
+
+- 修改nginx配置文件(注意`自行修改`的几处)
+
+```html
+vi /etc/nginx/nginx.conf
+
+server {
+ listen 8888;# 访问端口(自行修改)
+ server_name localhost;
+ #charset koi8-r;
+ #access_log /var/log/nginx/host.access.log main;
+ location / {
+ root /opt/soft/dolphinscheduler-ui/dist; # 前端解压的dist目录地址(自行修改)
+ index index.html index.html;
+ }
+ location /dolphinscheduler {
+ proxy_pass http://localhost:12345; # 接口地址(自行修改)
+ proxy_set_header Host $host;
+ proxy_set_header X-Real-IP $remote_addr;
+ proxy_set_header x_real_ipP $remote_addr;
+ proxy_set_header remote_addr $remote_addr;
+ proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
+ proxy_http_version 1.1;
+ proxy_connect_timeout 4s;
+ proxy_read_timeout 30s;
+ proxy_send_timeout 12s;
+ proxy_set_header Upgrade $http_upgrade;
+ proxy_set_header Connection "upgrade";
+ }
+ #error_page 404 /404.html;
+ # redirect server error pages to the static page /50x.html
+ #
+ error_page 500 502 503 504 /50x.html;
+ location = /50x.html {
+ root /usr/share/nginx/html;
+ }
+}
+```
+- 然后重启Nginx服务
+
+ ```shell
+ systemctl restart nginx
+ ```
+
+- 访问前端页面地址: http://localhost:8888 ,出现前端登录页面,前端web也安装完成了
+
+ ```html
+ <p align="center">
+ <img src="/img/login.png" width="60%" />
+ </p>
+ ```
+
+
+
+# 3、启停服务
+
+* 一键停止集群所有服务
+
+ ` sh ./bin/stop-all.sh`
+
+* 一键开启集群所有服务
+
+ ` sh ./bin/start-all.sh`
+
+* 启停Master
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start master-server
+sh ./bin/dolphinscheduler-daemon.sh stop master-server
+```
+
+* 启停Worker
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start worker-server
+sh ./bin/dolphinscheduler-daemon.sh stop worker-server
+```
+
+* 启停Api
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start api-server
+sh ./bin/dolphinscheduler-daemon.sh stop api-server
+```
+
+* 启停Logger
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start logger-server
+sh ./bin/dolphinscheduler-daemon.sh stop logger-server
+```
+
+* 启停Alert
+
+```shell
+sh ./bin/dolphinscheduler-daemon.sh start alert-server
+sh ./bin/dolphinscheduler-daemon.sh stop alert-server
+```
+
+`注:服务用途请具体参见《系统架构设计》小节`
\ No newline at end of file
diff --git a/docs/zh-cn/1.2.1/system-manual.md
b/docs/zh-cn/1.2.1/system-manual.md
new file mode 100644
index 0000000..ad465ec
--- /dev/null
+++ b/docs/zh-cn/1.2.1/system-manual.md
@@ -0,0 +1,842 @@
+# 系统使用手册
+
+
+## 快速上手
+
+ > 请参照[快速上手](quick-start.html)
+
+## 操作指南
+
+### 1. 首页
+ 首页包含用户所有项目的任务状态统计、流程状态统计、工作流定义统计。
+ <p align="center">
+ <img src="/img/home.png" width="80%" />
+ </p>
+
+### 2. 项目管理
+#### 2.1 创建项目
+ - 点击"项目管理"进入项目管理页面,点击“创建项目”按钮,输入项目名称,项目描述,点击“提交”,创建新的项目。
+
+ <p align="center">
+ <img src="/img/project.png" width="80%" />
+ </p>
+
+#### 2.2 项目首页
+ - 在项目管理页面点击项目名称链接,进入项目首页,如下图所示,项目首页包含该项目的任务状态统计、流程状态统计、工作流定义统计。
+ <p align="center">
+ <img src="/img/project-home.png" width="80%" />
+ </p>
+
+ - 任务状态统计:在指定时间范围内,统计任务实例中状态为提交成功、正在运行、准备暂停、暂停、准备停止、停止、失败、成功、需要容错、kill、等待线程的个数
+ - 流程状态统计:在指定时间范围内,统计工作流实例中状态为提交成功、正在运行、准备暂停、暂停、准备停止、停止、失败、成功、需要容错、kill、等待线程的个数
+ - 工作流定义统计:统计用户创建的工作流定义及管理员授予该用户的工作流定义
+
+#### 2.3 工作流定义
+#### <span id=creatDag>2.3.1 创建工作流定义</span>
+ - 点击项目管理->工作流->工作流定义,进入工作流定义页面,点击“创建工作流”按钮,进入**工作流DAG编辑**页面,如下图所示:
+ <p align="center">
+ <img src="/img/dag0.png" width="80%" />
+ </p>
+ - 工具栏中拖拽<img src="/img/shell.png" width="35"/>到画板中,新增一个Shell任务,如下图所示:
+ <p align="center">
+ <img src="/img/shell_dag.png" width="80%" />
+ </p>
+ - **添加shell任务的参数设置:**
+ 1. 填写“节点名称”,“描述”,“脚本”字段;
+ 1. “运行标志”勾选“正常”,若勾选“禁止执行”,运行工作流不会执行该任务;
+ 1. 选择“任务优先级”:当worker线程数不足时,级别高的任务在执行队列中会优先执行,相同优先级的任务按照先进先出的顺序执行;
+ 1. 超时告警(非必选):勾选超时告警、超时失败,填写“超时时长”,当任务执行时间超过**超时时长**,会发送告警邮件并且任务超时失败;
+ 1. 资源(非必选)。资源文件是资源中心->文件管理页面创建或上传的文件,如文件名为`test.sh`,脚本中调用资源命令为`sh test.sh`;
+ 1. 自定义参数(非必填),参考[自定义参数](#UserDefinedParameters);
+ 1. 点击"确认添加"按钮,保存任务设置。
+
+ - **增加任务执行的先后顺序:** 点击右上角图标<img src="/img/line.png"
width="35"/>连接任务;如下图所示,任务2和任务3并行执行,当任务1执行完,任务2、3会同时执行。
+
+ <p align="center">
+ <img src="/img/dag2.png" width="80%" />
+ </p>
+
+ - **删除依赖关系:** 点击右上角"箭头"图标<img src="/img/arrow.png"
width="35"/>,选中连接线,点击右上角"删除"图标<img src="/img/delete.png"
width="35"/>,删除任务间的依赖关系。
+ <p align="center">
+ <img src="/img/dag3.png" width="80%" />
+ </p>
+
+ - **保存工作流定义:**
点击”保存“按钮,弹出"设置DAG图名称"弹框,如下图所示,输入工作流定义名称,工作流定义描述,设置全局参数(选填,参考[自定义参数](#UserDefinedParameters)),点击"添加"按钮,工作流定义创建成功。
+ <p align="center">
+ <img src="/img/dag4.png" width="80%" />
+ </p>
+ > 其他类型任务,请参考 [任务节点类型和参数设置](#TaskParamers)。
+#### 2.3.2 工作流定义操作功能
+ 点击项目管理->工作流->工作流定义,进入工作流定义页面,如下图所示:
+ <p align="center">
+ <img src="/img/work_list.png" width="80%" />
+ </p>
+ 工作流定义列表的操作功能如下:
+ - **编辑:** 只能编辑"下线"的工作流定义。工作流DAG编辑同[创建工作流定义](#creatDag)。
+ - **上线:** 工作流状态为"下线"时,上线工作流,只有"上线"状态的工作流能运行,但不能编辑。
+ - **下线:** 工作流状态为"上线"时,下线工作流,下线状态的工作流可以编辑,但不能运行。
+ - **运行:** 只有上线的工作流能运行。运行操作步骤见[2.3.3 运行工作流](#runWorkflow)
+ - **定时:**
只有上线的工作流能设置定时,系统自动定时调度工作流运行。创建定时后的状态为"下线",需在定时管理页面上线定时才生效。定时操作步骤见[2.3.4
工作流定时](#creatTiming)。
+ - **定时管理:** 定时管理页面可编辑、上线/下线、删除定时。
+ - **删除:** 删除工作流定义。
+ - **下载:** 下载工作流定义到本地。
+ - **树形图:** 以树形结构展示任务节点的类型及任务状态,如下图所示:
+ <p align="center">
+ <img src="/img/tree.png" width="80%" />
+ </p>
+
+#### <span id=runWorkflow>2.3.3 运行工作流</span>
+ - 点击项目管理->工作流->工作流定义,进入工作流定义页面,如下图所示,点击"上线"按钮<img src="/img/online.png"
width="35"/>,上线工作流。
+ <p align="center">
+ <img src="/img/work_list.png" width="80%" />
+ </p>
+
+ - 点击”运行“按钮,弹出启动参数设置弹框,如下图所示,设置启动参数,点击弹框中的"运行"按钮,工作流开始运行,工作流实例页面生成一条工作流实例。
+ <p align="center">
+ <img src="/img/run-work.png" width="80%" />
+ </p>
+ <span id=runParamers>工作流运行参数说明:</span>
+
+ *
失败策略:当某一个任务节点执行失败时,其他并行的任务节点需要执行的策略。”继续“表示:某一任务失败后,其他任务节点正常执行;”结束“表示:终止所有正在执行的任务,并终止整个流程。
+ * 通知策略:当流程结束,根据流程状态发送流程执行信息通知邮件,包含任何状态都不发,成功发,失败发,成功或失败都发。
+ *
流程优先级:流程运行的优先级,分五个等级:最高(HIGHEST),高(HIGH),中(MEDIUM),低(LOW),最低(LOWEST)。当master线程数不足时,级别高的流程在执行队列中会优先执行,相同优先级的流程按照先进先出的顺序执行。
+ * worker分组:该流程只能在指定的worker机器组里执行。默认是Default,可以在任一worker上执行。
+ * 通知组:选择通知策略||超时报警||发生容错时,会发送流程信息或邮件到通知组里的所有成员。
+ * 收件人:选择通知策略||超时报警||发生容错时,会发送流程信息或告警邮件到收件人列表。
+ * 抄送人:选择通知策略||超时报警||发生容错时,会抄送流程信息或告警邮件到抄送人列表。
+ *
补数:包括串行补数、并行补数2种模式。串行补数:指定时间范围内,从开始日期至结束日期依次执行补数,只生成一条流程实例;并行补数:指定时间范围内,多天同时进行补数,生成N条流程实例。
+ * 补数: 执行指定日期的工作流定义,可以选择补数时间范围(目前只支持针对连续的天进行补数),比如需要补5月1号到5月10号的数据,如下图所示:
+ <p align="center">
+ <img src="/img/complement.png" width="80%" />
+ </p>
+
+ >串行模式:补数从5月1号到5月10号依次执行,流程实例页面生成一条流程实例;
+
+ >并行模式:同时执行5月1号到5月10号的任务,流程实例页面生成十条流程实例。
+
+#### <span id=creatTiming>2.3.4 工作流定时</span>
+ - 创建定时:点击项目管理->工作流->工作流定义,进入工作流定义页面,上线工作流,点击"定时"按钮<img src="/img/timing.png"
width="35"/>,弹出定时参数设置弹框,如下图所示:
+ <p align="center">
+ <img src="/img/time-schedule.png" width="80%" />
+ </p>
+ - 选择起止时间。在起止时间范围内,定时运行工作流;不在起止时间范围内,不再产生定时工作流实例。
+ - 添加一个每天凌晨5点执行一次的定时,如下图所示:
+ <p align="center">
+ <img src="/img/time-schedule2.png" width="80%" />
+ </p>
+ - 失败策略、通知策略、流程优先级、Worker分组、通知组、收件人、抄送人同[工作流运行参数](#runParamers)。
+ - 点击"创建"按钮,创建定时成功,此时定时状态为"**下线**",定时需**上线**才生效。
+ - 定时上线:点击"定时管理"按钮<img src="/img/timeManagement.png"
width="35"/>,进入定时管理页面,点击"上线"按钮,定时状态变为"上线",如下图所示,工作流定时生效。
+ <p align="center">
+ <img src="/img/time-schedule3.png" width="80%" />
+ </p>
+#### 2.3.5 导入工作流
+ 点击项目管理->工作流->工作流定义,进入工作流定义页面,点击"导入工作流"按钮,导入本地工作流文件,工作流定义列表显示导入的工作流,状态为下线。
+
+#### 2.4 工作流实例
+#### 2.4.1 查看工作流实例
+ - 点击项目管理->工作流->工作流实例,进入工作流实例页面,如下图所示:
+ <p align="center">
+ <img src="/img/instance-list.png" width="80%" />
+ </p>
+ - 点击工作流名称,进入DAG查看页面,查看任务执行状态,如下图所示。
+ <p align="center">
+ <img src="/img/instance-detail.png" width="80%" />
+ </p>
+#### 2.4.2 查看任务日志
+ - 进入工作流实例页面,点击工作流名称,进入DAG查看页面,双击任务节点,如下图所示:
+ <p align="center">
+ <img src="/img/instanceViewLog.png" width="80%" />
+ </p>
+ - 点击"查看日志",弹出日志弹框,如下图所示,任务实例页面也可查看任务日志,参考[任务查看日志](#taskLog)。
+ <p align="center">
+ <img src="/img/task-log.png" width="80%" />
+ </p>
+#### 2.4.3 查看任务历史记录
+ - 点击项目管理->工作流->工作流实例,进入工作流实例页面,点击工作流名称,进入工作流DAG页面;
+ - 双击任务节点,如下图所示,点击"查看历史",跳转到任务实例页面,并展示该工作流实例运行的任务实例列表
+ <p align="center">
+ <img src="/img/task_history.png" width="80%" />
+ </p>
+
+#### 2.4.4 查看运行参数
+ - 点击项目管理->工作流->工作流实例,进入工作流实例页面,点击工作流名称,进入工作流DAG页面;
+ - 点击左上角图标<img src="/img/run_params_button.png"
width="35"/>,查看工作流实例的启动参数;点击图标<img src="/img/global_param.png"
width="35"/>,查看工作流实例的全局参数和局部参数,如下图所示:
+ <p align="center">
+ <img src="/img/run_params.png" width="80%" />
+ </p>
+
+#### 2.4.4 工作流实例操作功能
+ 点击项目管理->工作流->工作流实例,进入工作流实例页面,如下图所示:
+ <p align="center">
+ <img src="/img/instance-list.png" width="80%" />
+ </p>
+
+ - **编辑:**
只能编辑已终止的流程。点击"编辑"按钮或工作流实例名称进入DAG编辑页面,编辑后点击"保存"按钮,弹出保存DAG弹框,如下图所示,在弹框中勾选"是否更新到工作流定义",保存后则更新工作流定义;若不勾选,则不更新工作流定义。
+ <p align="center">
+ <img src="/img/editDag.png" width="80%" />
+ </p>
+ - **重跑:** 重新执行已经终止的流程。
+ - **恢复失败:** 针对失败的流程,可以执行恢复失败操作,从失败的节点开始执行。
+ - **停止:** 对正在运行的流程进行**停止**操作,后台会先`kill`worker进程,再执行`kill -9`操作
+ - **暂停:** 对正在运行的流程进行**暂停**操作,系统状态变为**等待执行**,会等待正在执行的任务结束,暂停下一个要执行的任务。
+ - **恢复暂停:** 对暂停的流程恢复,直接从**暂停的节点**开始运行
+ - **删除:** 删除工作流实例及工作流实例下的任务实例
+ - **甘特图:** Gantt图纵轴是某个工作流实例下的任务实例的拓扑排序,横轴是任务实例的运行时间,如图示:
+ <p align="center">
+ <img src="/img/gant-pic.png" width="80%" />
+ </p>
+
+#### 2.5 任务实例
+ - 点击项目管理->工作流->任务实例,进入任务实例页面,如下图所示,点击工作流实例名称,可跳转到工作流实例DAG图查看任务状态。
+ <p align="center">
+ <img src="/img/task-list.png" width="80%" />
+ </p>
+
+ - <span id=taskLog>查看日志:</span>点击操作列中的“查看日志”按钮,可以查看任务执行的日志情况。
+ <p align="center">
+ <img src="/img/task-log2.png" width="80%" />
+ </p>
+
+### 3. 资源中心
+#### 3.1 hdfs资源配置
+ - 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项:
+
+```
+conf/common/common.properties
+ # Users who have permission to create directories under the HDFS root path
+ hdfs.root.user=hdfs
+ # data base dir, resource file will store to this hadoop hdfs path, self
configuration, please make sure the directory exists on hdfs and have read
write permissions。"/escheduler" is recommended
+ data.store2hdfs.basepath=/dolphinscheduler
+ # resource upload startup type : HDFS,S3,NONE
+ res.upload.startup.type=HDFS
+ # whether kerberos starts
+ hadoop.security.authentication.startup.state=false
+ # java.security.krb5.conf path
+ java.security.krb5.conf.path=/opt/krb5.conf
+ # loginUserFromKeytab user
+ [email protected]
+ # loginUserFromKeytab path
+ login.user.keytab.path=/opt/hdfs.headless.keytab
+
+conf/common/hadoop.properties
+ # ha or single namenode,If namenode ha needs to copy core-site.xml and
hdfs-site.xml
+ # to the conf directory,support s3,for example : s3a://dolphinscheduler
+ fs.defaultFS=hdfs://mycluster:8020
+ #resourcemanager ha note this need ips , this empty if single
+ yarn.resourcemanager.ha.rm.ids=192.168.xx.xx,192.168.xx.xx
+ # If it is a single resourcemanager, you only need to configure one host
name. If it is resourcemanager HA, the default configuration is fine
+ yarn.application.status.address=http://xxxx:8088/ws/v1/cluster/apps/%s
+
+```
+*
yarn.resourcemanager.ha.rm.ids与yarn.application.status.address只需配置其中一个地址,另一个地址配置为空。
+*
需要从Hadoop集群的conf目录下复制core-site.xml、hdfs-site.xml到dolphinscheduler项目的conf目录下,重启api-server服务。
+
+
+#### 3.2 文件管理
+
+ >
是对各种资源文件的管理,包括创建基本的txt/log/sh/conf/py/java等文件、上传jar包等各种类型文件,可进行编辑、重命名、下载、删除等操作。
+ <p align="center">
+ <img src="/img/file-manage.png" width="80%" />
+ </p>
+
+ * 创建文件
+ > 文件格式支持以下几种类型:txt、log、sh、conf、cfg、py、java、sql、xml、hql、properties
+
+<p align="center">
+ <img src="/img/file_create.png" width="80%" />
+ </p>
+
+ * 上传文件
+
+> 上传文件:点击"上传文件"按钮进行上传,将文件拖拽到上传区域,文件名会自动以上传的文件名称补全
+
+<p align="center">
+ <img src="/img/file_upload.png" width="80%" />
+ </p>
+
+
+ * 文件查看
+
+> 对可查看的文件类型,点击文件名称,可查看文件详情
+
+<p align="center">
+ <img src="/img/file_detail.png" width="80%" />
+ </p>
+
+ * 下载文件
+
+> 点击文件列表的"下载"按钮下载文件或者在文件详情中点击右上角"下载"按钮下载文件
+
+ * 文件重命名
+
+<p align="center">
+ <img src="/img/file_rename.png" width="80%" />
+ </p>
+
+ * 删除
+> 文件列表->点击"删除"按钮,删除指定文件
+
+#### 3.3 UDF管理
+#### 3.3.1 资源管理
+ > 资源管理和文件管理功能类似,不同之处是资源管理是上传的UDF函数,文件管理上传的是用户程序,脚本及配置文件
+ > 操作功能:重命名、下载、删除。
+
+ * 上传udf资源
+ > 和上传文件相同。
+
+
+#### 3.3.2 函数管理
+
+ * 创建udf函数
+ > 点击“创建UDF函数”,输入udf函数参数,选择udf资源,点击“提交”,创建udf函数。
+
+ > 目前只支持HIVE的临时UDF函数
+
+ - UDF函数名称:输入UDF函数时的名称
+ - 包名类名:输入UDF函数的全路径
+ - UDF资源:设置创建的UDF对应的资源文件
+
+<p align="center">
+ <img src="/img/udf_edit.png" width="80%" />
+ </p>
+
+
+### 4. 创建数据源
+ > 数据源中心支持MySQL、POSTGRESQL、HIVE/IMPALA、SPARK、CLICKHOUSE、ORACLE、SQLSERVER等数据源
+
+#### 4.1 创建/编辑MySQL数据源
+
+ - 点击“数据源中心->创建数据源”,根据需求创建不同类型的数据源。
+
+ - 数据源:选择MYSQL
+ - 数据源名称:输入数据源的名称
+ - 描述:输入数据源的描述
+ - IP主机名:输入连接MySQL的IP
+ - 端口:输入连接MySQL的端口
+ - 用户名:设置连接MySQL的用户名
+ - 密码:设置连接MySQL的密码
+ - 数据库名:输入连接MySQL的数据库名称
+ - Jdbc连接参数:用于MySQL连接的参数设置,以JSON形式填写
+
+<p align="center">
+ <img src="/img/mysql_edit.png" width="80%" />
+ </p>
+
+ > 点击“测试连接”,测试数据源是否可以连接成功。
+
+#### 4.2 创建/编辑POSTGRESQL数据源
+
+- 数据源:选择POSTGRESQL
+- 数据源名称:输入数据源的名称
+- 描述:输入数据源的描述
+- IP/主机名:输入连接POSTGRESQL的IP
+- 端口:输入连接POSTGRESQL的端口
+- 用户名:设置连接POSTGRESQL的用户名
+- 密码:设置连接POSTGRESQL的密码
+- 数据库名:输入连接POSTGRESQL的数据库名称
+- Jdbc连接参数:用于POSTGRESQL连接的参数设置,以JSON形式填写
+
+<p align="center">
+ <img src="/img/postgresql_edit.png" width="80%" />
+ </p>
+
+#### 4.3 创建/编辑HIVE数据源
+
+1.使用HiveServer2方式连接
+
+ <p align="center">
+ <img src="/img/hive_edit.png" width="80%" />
+ </p>
+
+ - 数据源:选择HIVE
+ - 数据源名称:输入数据源的名称
+ - 描述:输入数据源的描述
+ - IP/主机名:输入连接HIVE的IP
+ - 端口:输入连接HIVE的端口
+ - 用户名:设置连接HIVE的用户名
+ - 密码:设置连接HIVE的密码
+ - 数据库名:输入连接HIVE的数据库名称
+ - Jdbc连接参数:用于HIVE连接的参数设置,以JSON形式填写
+
+2.使用HiveServer2 HA Zookeeper方式连接
+
+ <p align="center">
+ <img src="/img/hive_edit2.png" width="80%" />
+ </p>
+
+
+注意:如果开启了**kerberos**,则需要填写 **Principal**
+<p align="center">
+ <img src="/img/hive_kerberos.png" width="80%" />
+ </p>
+
+
+
+
+#### 4.4 创建/编辑Spark数据源
+
+<p align="center">
+ <img src="/img/spark_datesource.png" width="80%" />
+ </p>
+
+- 数据源:选择Spark
+- 数据源名称:输入数据源的名称
+- 描述:输入数据源的描述
+- IP/主机名:输入连接Spark的IP
+- 端口:输入连接Spark的端口
+- 用户名:设置连接Spark的用户名
+- 密码:设置连接Spark的密码
+- 数据库名:输入连接Spark的数据库名称
+- Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写
+
+
+
+注意:如果开启了**kerberos**,则需要填写 **Principal**
+
+<p align="center">
+ <img src="/img/sparksql_kerberos.png" width="80%" />
+ </p>
+
+
+
+### 5. 安全中心(权限系统)
+
+ *
安全中心只有管理员账户才有权限操作,分别有队列管理、租户管理、用户管理、告警组管理、worker分组管理、令牌管理等功能,在用户管理模块可以对资源、数据源、项目等授权
+ * 管理员登录,默认用户名密码:admin/dolphinscheduler123
+
+#### 5.1 创建队列
+ - 队列是在执行spark、mapreduce等程序,需要用到“队列”参数时使用的。
+ - 管理员进入安全中心->队列管理页面,点击“创建队列”按钮,创建队列。
+ <p align="center">
+ <img src="/img/create-queue.png" width="80%" />
+ </p>
+
+
+#### 5.2 添加租户
+ - 租户对应的是Linux的用户,用于worker提交作业所使用的用户。如果linux没有这个用户,worker会在执行脚本的时候创建这个用户。
+ - 租户编码:**租户编码是Linux上的用户,唯一,不能重复**
+ - 管理员进入安全中心->租户管理页面,点击“创建租户”按钮,创建租户。
+
+ <p align="center">
+ <img src="/img/addtenant.png" width="80%" />
+ </p>
+
+#### 5.3 创建普通用户
+ - 用户分为**管理员用户**和**普通用户**
+
+ * 管理员有授权和用户管理等权限,没有创建项目和工作流定义的操作的权限。
+ * 普通用户可以创建项目和对工作流定义的创建,编辑,执行等操作。
+ * 注意:如果该用户切换了租户,则该用户所在租户下所有资源将复制到切换的新租户下。
+ - 管理员进入安全中心->用户管理页面,点击“创建用户”按钮,创建用户。
+<p align="center">
+ <img src="/img/useredit2.png" width="80%" />
+ </p>
+
+ > **编辑用户信息**
+ - 管理员进入安全中心->用户管理页面,点击"编辑"按钮,编辑用户信息。
+ - 普通用户登录后,点击用户名下拉框中的用户信息,进入用户信息页面,点击"编辑"按钮,编辑用户信息。
+
+ > **修改用户密码**
+ - 管理员进入安全中心->用户管理页面,点击"编辑"按钮,编辑用户信息时,输入新密码修改用户密码。
+ - 普通用户登录后,点击用户名下拉框中的用户信息,进入修改密码页面,输入密码并确认密码后点击"编辑"按钮,则修改密码成功。
+
+
+#### 5.4 创建告警组
+ * 告警组是在启动时设置的参数,在流程结束以后会将流程的状态和其他信息以邮件形式发送给告警组。
+ - 管理员进入安全中心->告警组管理页面,点击“创建告警组”按钮,创建告警组。
+
+ <p align="center">
+ <img src="/img/mail_edit.png" width="80%" />
+ </p>
+
+#### 5.5 创建worker分组
+ -
worker分组,提供了一种让任务在指定的worker上运行的机制。管理员创建worker分组,在任务节点和运行参数中设置中可以指定该任务运行的worker分组,如果指定的分组被删除或者没有指定分组,则该任务会在任一worker上运行。
+ -
管理员进入安全中心->Worker分组管理页面,点击“创建Worker分组”按钮,创建Worker分组。worker分组内有多个ip地址(**不能写别名**),以**英文逗号**分隔。
+ <p align="center">
+ <img src="/img/worker1.png" width="80%" />
+ </p>
+
+#### 5.6 令牌管理
+ > 由于后端接口有登录检查,令牌管理提供了一种可以通过调用接口的方式对系统进行各种操作。
+ - 管理员进入安全中心->令牌管理页面,点击“创建令牌”按钮,选择失效时间与用户,点击"生成令牌"按钮,点击"提交"按钮,则选择用户的token创建成功。
+
+ <p align="center">
+ <img src="/img/creat_token.png" width="80%" />
+ </p>
+
+ - 普通用户登录后,点击用户名下拉框中的用户信息,进入令牌管理页面,选择失效时间,点击"生成令牌"按钮,点击"提交"按钮,则该用户创建token成功。
+
+ - 调用示例:
+
+```令牌调用示例
+ /**
+ * test token
+ */
+ public void doPOSTParam()throws Exception{
+ // create HttpClient
+ CloseableHttpClient httpclient = HttpClients.createDefault();
+
+ // create http post request
+ HttpPost httpPost = new
HttpPost("http://127.0.0.1:12345/escheduler/projects/create");
+ httpPost.setHeader("token", "123");
+ // set parameters
+ List<NameValuePair> parameters = new ArrayList<NameValuePair>();
+ parameters.add(new BasicNameValuePair("projectName", "qzw"));
+ parameters.add(new BasicNameValuePair("desc", "qzw"));
+ UrlEncodedFormEntity formEntity = new UrlEncodedFormEntity(parameters);
+ httpPost.setEntity(formEntity);
+ CloseableHttpResponse response = null;
+ try {
+ // execute
+ response = httpclient.execute(httpPost);
+ // response status code 200
+ if (response.getStatusLine().getStatusCode() == 200) {
+ String content = EntityUtils.toString(response.getEntity(),
"UTF-8");
+ System.out.println(content);
+ }
+ } finally {
+ if (response != null) {
+ response.close();
+ }
+ httpclient.close();
+ }
+ }
+```
+
+#### 5.7 授予权限
+
+ * 授予权限包括项目权限,资源权限,数据源权限,UDF函数权限。
+ *
管理员可以对普通用户进行非其创建的项目、资源、数据源和UDF函数进行授权。因为项目、资源、数据源和UDF函数授权方式都是一样的,所以以项目授权为例介绍。
+ * 注意:对于用户自己创建的项目,该用户拥有所有的权限。则项目列表和已选项目列表中不会显示。
+
+ - 管理员进入安全中心->用户管理页面,点击需授权用户的“授权”按钮,如下图所示:
+ <p align="center">
+ <img src="/img/auth_user.png" width="80%" />
+ </p>
+
+ - 选择项目,进行项目授权。
+
+<p align="center">
+ <img src="/img/auth_project.png" width="80%" />
+ </p>
+
+ - 资源、数据源、UDF函数授权同项目授权。
+
+### 6. 监控中心
+
+#### 6.1 服务管理
+ - 服务管理主要是对系统中的各个服务的健康状况和基本信息的监控和显示
+
+#### 6.1.1 master监控
+ - 主要是master的相关信息。
+<p align="center">
+ <img src="/img/master-jk.png" width="80%" />
+ </p>
+
+#### 6.1.2 worker监控
+ - 主要是worker的相关信息。
+
+<p align="center">
+ <img src="/img/worker-jk.png" width="80%" />
+ </p>
+
+#### 6.1.3 Zookeeper监控
+ - 主要是zookpeeper中各个worker和master的相关配置信息。
+
+<p align="center">
+ <img src="/img/zk-jk.png" width="80%" />
+ </p>
+
+#### 6.1.4 DB监控
+ - 主要是DB的健康状况
+
+<p align="center">
+ <img src="/img/mysql-jk.png" width="80%" />
+ </p>
+
+#### 6.2 统计管理
+<p align="center">
+ <img src="/img/Statistics.png" width="80%" />
+ </p>
+
+ - 待执行命令数:统计t_ds_command表的数据
+ - 执行失败的命令数:统计t_ds_error_command表的数据
+ - 待运行任务数:统计zookeeper中task_queue的数据
+ - 待杀死任务数:统计zookeeper中task_kill的数据
+
+### 7. <span id=TaskParamers>任务节点类型和参数设置</span>
+
+#### 7.1 Shell节点
+ > shell节点,在worker执行的时候,会生成一个临时shell脚本,使用租户同名的linux用户执行这个脚本。
+ - 点击项目管理-项目名称-工作流定义,点击"创建工作流"按钮,进入DAG编辑页面。
+ - 工具栏中拖动<img src="/img/shell.png" width="35"/>到画板中,如下图所示:
+
+ <p align="center">
+ <img src="/img/shell_dag.png" width="80%" />
+ </p>
+
+- 节点名称:一个工作流定义中的节点名称是唯一的。
+- 运行标志:标识这个节点是否能正常调度,如果不需要执行,可以打开禁止执行开关。
+- 描述信息:描述该节点的功能。
+- 任务优先级:worker线程数不足时,根据优先级从高到低依次执行,优先级一样时根据先进先出原则执行。
+- Worker分组:任务分配给worker组的机器机执行,选择Default,会随机选择一台worker机执行。
+- 失败重试次数:任务失败重新提交的次数,支持下拉和手填。
+- 失败重试间隔:任务失败重新提交任务的时间间隔,支持下拉和手填。
+- 超时告警:勾选超时告警、超时失败,当任务超过"超时时长"后,会发送告警邮件并且任务执行失败.
+- 脚本:用户开发的SHELL程序。
+- 资源:是指脚本中需要调用的资源文件列表,资源中心-文件管理上传或创建的文件。
+- 自定义参数:是SHELL局部的用户自定义参数,会替换脚本中以${变量}的内容。
+
+#### 7.2 子流程节点
+ - 子流程节点,就是把外部的某个工作流定义当做一个任务节点去执行。
+>
拖动工具栏中的任务节点到画板中,如下图所示:
+
+<p align="center">
+ <img src="/img/subprocess_edit.png" width="80%" />
+ </p>
+
+- 节点名称:一个工作流定义中的节点名称是唯一的
+- 运行标志:标识这个节点是否能正常调度
+- 描述信息:描述该节点的功能
+- 超时告警:勾选超时告警、超时失败,当任务超过"超时时长"后,会发送告警邮件并且任务执行失败.
+- 子节点:是选择子流程的工作流定义,右上角进入该子节点可以跳转到所选子流程的工作流定义
+
+#### 7.3 依赖(DEPENDENT)节点
+ - 依赖节点,就是**依赖检查节点**。比如A流程依赖昨天的B流程执行成功,依赖节点会去检查B流程在昨天是否有执行成功的实例。
+
+>
拖动工具栏中的任务节点到画板中,如下图所示:
+
+<p align="center">
+ <img src="/img/dependent_edit.png" width="80%" />
+ </p>
+
+ > 依赖节点提供了逻辑判断功能,比如检查昨天的B流程是否成功,或者C流程是否执行成功。
+
+ <p align="center">
+ <img src="/img/depend-node.png" width="80%" />
+ </p>
+
+ > 例如,A流程为周报任务,B、C流程为天任务,A任务需要B、C任务在上周的每一天都执行成功,如图示:
+
+ <p align="center">
+ <img src="/img/depend-node2.png" width="80%" />
+ </p>
+
+ > 假如,周报A同时还需要自身在上周二执行成功:
+
+ <p align="center">
+ <img src="/img/depend-node3.png" width="80%" />
+ </p>
+
+#### 7.4 存储过程节点
+ - 根据选择的数据源,执行存储过程。
+>
拖动工具栏中的任务节点到画板中,如下图所示:
+
+<p align="center">
+ <img src="/img/procedure_edit.png" width="80%" />
+ </p>
+
+- 数据源:存储过程的数据源类型支持MySQL和POSTGRESQL两种,选择对应的数据源
+- 方法:是存储过程的方法名称
+-
自定义参数:存储过程的自定义参数类型支持IN、OUT两种,数据类型支持VARCHAR、INTEGER、LONG、FLOAT、DOUBLE、DATE、TIME、TIMESTAMP、BOOLEAN九种数据类型
+
+#### 7.5 SQL节点
+ -
拖动工具栏中的任务节点到画板中
+ - 非查询SQL功能:编辑非查询SQL任务信息,sql类型选择非查询,如下图所示:
+ <p align="center">
+ <img src="/img/sql-node.png" width="80%" />
+ </p>
+
+ - 查询SQL功能:编辑查询SQL任务信息,sql类型选择查询,选择表格或附件形式发送邮件到指定的收件人,如下图所示。
+
+<p align="center">
+ <img src="/img/sql-node2.png" width="80%" />
+ </p>
+
+- 数据源:选择对应的数据源
+-
sql类型:支持查询和非查询两种,查询是select类型的查询,是有结果集返回的,可以指定邮件通知为表格、附件或表格附件三种模板。非查询是没有结果集返回的,是针对update、delete、insert三种类型的操作。
+- sql参数:输入参数格式为key1=value1;key2=value2…
+- sql语句:SQL语句
+- UDF函数:对于HIVE类型的数据源,可以引用资源中心中创建的UDF函数,其他类型的数据源暂不支持UDF函数。
+-
自定义参数:SQL任务类型,而存储过程是自定义参数顺序的给方法设置值自定义参数类型和数据类型同存储过程任务类型一样。区别在于SQL任务类型自定义参数会替换sql语句中${变量}。
+- 前置sql:前置sql在sql语句之前执行。
+- 后置sql:后置sql在sql语句之后执行。
+
+
+#### 7.6 SPARK节点
+ - 通过SPARK节点,可以直接直接执行SPARK程序,对于spark节点,worker会使用`spark-submit`方式提交任务
+
+>
拖动工具栏中的任务节点到画板中,如下图所示:
+
+<p align="center">
+ <img src="/img/spark_edit.png" width="80%" />
+ </p>
+
+- 程序类型:支持JAVA、Scala和Python三种语言
+- 主函数的class:是Spark程序的入口Main Class的全路径
+- 主jar包:是Spark的jar包
+- 部署方式:支持yarn-cluster、yarn-client和local三种模式
+- Driver内核数:可以设置Driver内核数及内存数
+- Executor数量:可以设置Executor数量、Executor内存数和Executor内核数
+- 命令行参数:是设置Spark程序的输入参数,支持自定义参数变量的替换。
+- 其他参数:支持 --jars、--files、--archives、--conf格式
+- 资源:如果其他参数中引用了资源文件,需要在资源中选择指定
+- 自定义参数:是MR局部的用户自定义参数,会替换脚本中以${变量}的内容
+
+ 注意:JAVA和Scala只是用来标识,没有区别,如果是Python开发的Spark则没有主函数的class,其他都是一样
+
+#### 7.7 MapReduce(MR)节点
+ - 使用MR节点,可以直接执行MR程序。对于mr节点,worker会使用`hadoop jar`方式提交任务
+
+
+>
拖动工具栏中的任务节点到画板中,如下图所示:
+
+ 1. JAVA程序
+
+ <p align="center">
+ <img src="/img/mr_java.png" width="80%" />
+ </p>
+
+- 主函数的class:是MR程序的入口Main Class的全路径
+- 程序类型:选择JAVA语言
+- 主jar包:是MR的jar包
+- 命令行参数:是设置MR程序的输入参数,支持自定义参数变量的替换
+- 其他参数:支持 –D、-files、-libjars、-archives格式
+- 资源: 如果其他参数中引用了资源文件,需要在资源中选择指定
+- 自定义参数:是MR局部的用户自定义参数,会替换脚本中以${变量}的内容
+
+2. Python程序
+
+<p align="center">
+ <img src="/img/mr_edit.png" width="80%" />
+ </p>
+
+- 程序类型:选择Python语言
+- 主jar包:是运行MR的Python jar包
+- 其他参数:支持 –D、-mapper、-reducer、-input -output格式,这里可以设置用户自定义参数的输入,比如:
+- -mapper "mapper.py 1" -file mapper.py -reducer reducer.py -file
reducer.py –input /journey/words.txt -output
/journey/out/mr/${currentTimeMillis}
+- 其中 -mapper 后的 mapper.py 1是两个参数,第一个参数是mapper.py,第二个参数是1
+- 资源: 如果其他参数中引用了资源文件,需要在资源中选择指定
+- 自定义参数:是MR局部的用户自定义参数,会替换脚本中以${变量}的内容
+
+#### 7.8 Python节点
+ - 使用python节点,可以直接执行python脚本,对于python节点,worker会使用`python **`方式提交任务。
+
+
+>
拖动工具栏中的任务节点到画板中,如下图所示:
+
+<p align="center">
+ <img src="/img/python_edit.png" width="80%" />
+ </p>
+
+- 脚本:用户开发的Python程序
+- 资源:是指脚本中需要调用的资源文件列表
+- 自定义参数:是Python局部的用户自定义参数,会替换脚本中以${变量}的内容
+
+#### 7.9 Flink节点
+ - 拖动工具栏中的<img src="/img/flink.png" width="35"/>任务节点到画板中,如下图所示:
+
+<p align="center">
+ <img src="/img/flink_edit.png" width="80%" />
+</p>
+
+
+- 程序类型:支持JAVA、Scala和Python三种语言
+- 主函数的class:是Flink程序的入口Main Class的全路径
+- 主jar包:是Flink的jar包
+- 部署方式:支持cluster、local三种模式
+- slot数量:可以设置slot数
+- taskManage数量:可以设置taskManage数
+- jobManager内存数:可以设置jobManager内存数
+- taskManager内存数:可以设置taskManager内存数
+- 命令行参数:是设置Spark程序的输入参数,支持自定义参数变量的替换。
+- 其他参数:支持 --jars、--files、--archives、--conf格式
+- 资源:如果其他参数中引用了资源文件,需要在资源中选择指定
+- 自定义参数:是Flink局部的用户自定义参数,会替换脚本中以${变量}的内容
+
+ 注意:JAVA和Scala只是用来标识,没有区别,如果是Python开发的Flink则没有主函数的class,其他都是一样
+
+#### 7.10 http节点
+
+ - 拖动工具栏中的<img src="/img/http.png" width="35"/>任务节点到画板中,如下图所示:
+
+<p align="center">
+ <img src="/img/http_edit.png" width="80%" />
+ </p>
+
+- 节点名称:一个工作流定义中的节点名称是唯一的。
+- 运行标志:标识这个节点是否能正常调度,如果不需要执行,可以打开禁止执行开关。
+- 描述信息:描述该节点的功能。
+- 任务优先级:worker线程数不足时,根据优先级从高到低依次执行,优先级一样时根据先进先出原则执行。
+- Worker分组:任务分配给worker组的机器机执行,选择Default,会随机选择一台worker机执行。
+- 失败重试次数:任务失败重新提交的次数,支持下拉和手填。
+- 失败重试间隔:任务失败重新提交任务的时间间隔,支持下拉和手填。
+- 超时告警:勾选超时告警、超时失败,当任务超过"超时时长"后,会发送告警邮件并且任务执行失败.
+- 请求地址:http请求URL。
+- 请求类型:支持GET、POSt、HEAD、PUT、DELETE。
+- 请求参数:支持Parameter、Body、Headers。
+- 校验条件:支持默认响应码、自定义响应码、内容包含、内容不包含。
+- 校验内容:当校验条件选择自定义响应码、内容包含、内容不包含时,需填写校验内容。
+- 自定义参数:是http局部的用户自定义参数,会替换脚本中以${变量}的内容。
+
+
+
+#### 8. 参数
+#### 8.1 系统参数
+
+<table>
+ <tr><th>变量</th><th>含义</th></tr>
+ <tr>
+ <td>${system.biz.date}</td>
+ <td>日常调度实例定时的定时时间前一天,格式为 yyyyMMdd,补数据时,该日期 +1</td>
+ </tr>
+ <tr>
+ <td>${system.biz.curdate}</td>
+ <td>日常调度实例定时的定时时间,格式为 yyyyMMdd,补数据时,该日期 +1</td>
+ </tr>
+ <tr>
+ <td>${system.datetime}</td>
+ <td>日常调度实例定时的定时时间,格式为 yyyyMMddHHmmss,补数据时,该日期 +1</td>
+ </tr>
+</table>
+
+
+#### 8.2 时间自定义参数
+
+ - 支持代码中自定义变量名,声明方式:${变量名}。可以是引用 "系统参数" 或指定 "常量"。
+
+ - 我们定义这种基准变量为 $[...] 格式的,$[yyyyMMddHHmmss] 是可以任意分解组合的,比如:$[yyyyMMdd],
$[HHmmss], $[yyyy-MM-dd] 等
+
+ - 也可以使用以下格式:
+
+
+ * 后 N 年:$[add_months(yyyyMMdd,12*N)]
+ * 前 N 年:$[add_months(yyyyMMdd,-12*N)]
+ * 后 N 月:$[add_months(yyyyMMdd,N)]
+ * 前 N 月:$[add_months(yyyyMMdd,-N)]
+ * 后 N 周:$[yyyyMMdd+7*N]
+ * 前 N 周:$[yyyyMMdd-7*N]
+ * 后 N 天:$[yyyyMMdd+N]
+ * 前 N 天:$[yyyyMMdd-N]
+ * 后 N 小时:$[HHmmss+N/24]
+ * 前 N 小时:$[HHmmss-N/24]
+ * 后 N 分钟:$[HHmmss+N/24/60]
+ * 前 N 分钟:$[HHmmss-N/24/60]
+
+#### 8.3 <span id=UserDefinedParameters>用户自定义参数</span>
+
+ -
用户自定义参数分为全局参数和局部参数。全局参数是保存工作流定义和工作流实例的时候传递的全局参数,全局参数可以在整个流程中的任何一个任务节点的局部参数引用。
+ 例如:
+
+<p align="center">
+ <img src="/img/local_parameter.png" width="80%" />
+ </p>
+
+ - global_bizdate为全局参数,引用的是系统参数。
+
+<p align="center">
+ <img src="/img/global_parameter.png" width="80%" />
+ </p>
+
+ -
任务中local_param_bizdate通过\${global_bizdate}来引用全局参数,对于脚本可以通过\${local_param_bizdate}来引全局变量global_bizdate的值,或通过JDBC直接将local_param_bizdate的值set进去
diff --git a/docs/zh-cn/1.2.1/upgrade.md b/docs/zh-cn/1.2.1/upgrade.md
new file mode 100644
index 0000000..849d3ea
--- /dev/null
+++ b/docs/zh-cn/1.2.1/upgrade.md
@@ -0,0 +1,38 @@
+
+# DolphinScheduler升级文档
+
+## 1. 备份上一版本文件和数据库
+
+## 2. 停止dolphinscheduler所有服务
+
+ `sh ./script/stop-all.sh`
+
+## 3. 下载新版本的安装包
+
+- [下载](https://dolphinscheduler.apache.org/en-us/docs/user_doc/download.html),
下载最新版本的前后端安装包(dolphinscheduler-backend、dolphinscheduler-ui)
+- 以下升级操作都需要在新版本的目录进行
+
+## 4. 数据库升级
+- 修改conf/application-dao.properties中的下列属性
+
+```
+ spring.datasource.url
+ spring.datasource.username
+ spring.datasource.password
+```
+
+- 执行数据库升级脚本
+
+`sh ./script/upgrade-escheduler.sh`
+
+## 5. 后端服务升级
+
+- 修改install.sh配置内容,执行升级脚本
+
+ `sh install.sh`
+
+## 6. 前端服务升级
+- 覆盖上一版本dist目录
+- 重启nginx服务
+
+ `systemctl restart nginx`
diff --git a/site_config/site.js b/site_config/site.js
index f776c63..eba850b 100755
--- a/site_config/site.js
+++ b/site_config/site.js
@@ -19,10 +19,15 @@ export default {
{
key: 'docs1',
text: '1.2.0',
+ link: '/en-us/docs/1.2.1/user_doc/quick-start.html',
+ },
+ {
+ key: 'docs2',
+ text: '1.2.0',
link: '/en-us/docs/1.2.0/user_doc/quick-start.html',
},
{
- key: 'docs2',
+ key: 'docs3',
text: '1.1.0(Not Apache Release)',
link: 'https://analysys.github.io/easyscheduler_docs_cn/',
}
@@ -114,6 +119,11 @@ export default {
children: [
{
key: 'docs1',
+ text: '1.2.1',
+ link: '/zh-cn/docs/1.2.1/user_doc/quick-start.html',
+ },
+ {
+ key: 'docs1',
text: '1.2.0',
link: '/zh-cn/docs/1.2.0/user_doc/quick-start.html',
},