This is an automated email from the ASF dual-hosted git repository.

casion pushed a commit to branch dev
in repository https://gitbox.apache.org/repos/asf/incubator-linkis-website.git


The following commit(s) were added to refs/heads/dev by this push:
     new b9dfbdd66 modify 1.1.2 docs
     new 87ec11652 Merge pull request #302 from casionone/dev-fix2
b9dfbdd66 is described below

commit b9dfbdd668b80cd1b289909a9a74904820857feb
Author: casionone <[email protected]>
AuthorDate: Wed Jun 1 21:07:37 2022 +0800

    modify 1.1.2 docs
---
 .../api/http/jobhistory-api.md                     |  0
 .../current/engine_usage/sqoop.md                  |  1 +
 .../current/release-notes-1.1.2.md                 | 19 +++++------
 .../current/release.md                             | 39 +++++++++++++---------
 4 files changed, 32 insertions(+), 27 deletions(-)

diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-1.1.0/api/http/jobhistory-api.md
 b/i18n/zh-CN/docusaurus-plugin-content-docs/current/api/http/jobhistory-api.md
similarity index 100%
rename from 
i18n/zh-CN/docusaurus-plugin-content-docs/version-1.1.0/api/http/jobhistory-api.md
rename to 
i18n/zh-CN/docusaurus-plugin-content-docs/current/api/http/jobhistory-api.md
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/engine_usage/sqoop.md 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/engine_usage/sqoop.md
index aebcf57ae..818d44c37 100644
--- a/i18n/zh-CN/docusaurus-plugin-content-docs/current/engine_usage/sqoop.md
+++ b/i18n/zh-CN/docusaurus-plugin-content-docs/current/engine_usage/sqoop.md
@@ -12,6 +12,7 @@ sidebar_position: 9
 Sqoop引擎主要依赖Hadoop基础环境,如果该节点需要部署Sqoop引擎,需要部署Hadoop客户端环境。
 
 强烈建议您在执行Sqoop任务之前,先在该节点使用原生的Sqoop执行测试任务,以检测该节点环境是否正常。
+
 | 环境变量名      | 环境变量内容   | 备注                                   |
 |-----------------|----------------|----------------------------------------|
 | JAVA_HOME       | JDK安装路径    | 必须                                   |
diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/current/release-notes-1.1.2.md 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/release-notes-1.1.2.md
index e37f5ee96..40fd52009 100644
--- a/i18n/zh-CN/docusaurus-plugin-content-docs/current/release-notes-1.1.2.md
+++ b/i18n/zh-CN/docusaurus-plugin-content-docs/current/release-notes-1.1.2.md
@@ -6,11 +6,11 @@ sidebar_position: 0.4
 Apache Linkis(incubating) 1.1.2 包括所有 [Project 
Linkis-1.1.2](https://github.com/apache/incubator-linkis/projects/20)。
 
 
-本次发布主要支持 Linkis 部署解耦 HDFS;添加 Sqoop 引擎;修复社区已知 bug;修复安全漏洞等;
+本次发布主要 支持在无HDFS的环境下进行精简化部署(支持部分引擎),方便更轻量化的学习使用和调试;新增对数据迁移工具 Sqoop 
引擎的支持;异常处理日志优化;部分安全漏洞组件升级等;修复社区反馈的已知 bug
 
 主要功能如下:
-* 支持 Linkis 部署接口 HDFS [文档](/deployment/deploy_linkis_without_hdfs.md)
-* Linkis 增加 Sqoop 引擎 [文档](/engine_usage/sqoop.md)
+* 支持在无HDFS的环境下进行精简化部署(支持部分引擎),方便更轻量化的学习使用和调试
+* 新增对数据迁移工具 Sqoop 引擎的支持
 * 优化日志等,提高问题排查效率
 * 修复用户越权等接口的安全问题
 * 部分依赖包的升级和社区已知问题修复
@@ -37,7 +37,7 @@ Apache Linkis(incubating) 1.1.2 包括所有 [Project 
Linkis-1.1.2](https://gith
 * 
\[Common][[Linkis-1887]](https://github.com/apache/incubator-linkis/pull/1887) 
RPC模块Sender支持修改负载均衡 Ribbon 等参数
 * 
\[Common][[Linkis-2059]](https://github.com/apache/incubator-linkis/issues/2059)
  使用任务task id 作为日志中的 trace id
 * \[EC][[Linkis-1971]](https://github.com/apache/incubator-linkis/pull/1971) 
EC AsyncExecutor 支持设置并行 Job Group 的个数
-* 
\[Engine][[Linkis-2109]](https://github.com/apache/incubator-linkis/pull/2109) 
增加对 Sqoop 引擎的支持
+* 
\[Engine][[Linkis-2109]](https://github.com/apache/incubator-linkis/pull/2109) 
新增对数据迁移工具 Sqoop 引擎的支持
 
 ## 增强点
 * 
\[ECP][[Linkis-2074]](https://github.com/apache/incubator-linkis/issues/2074) 
Flink 引擎支持自定义配置
@@ -83,14 +83,11 @@ Apache Linkis(incubating) 1.1.2 包括所有 [Project 
Linkis-1.1.2](https://gith
 * \[PS][[Linkis-2086]](https://github.com/apache/incubator-linkis/pull/2086) 
方法 /updateCategoryInfo 增加权限校验
 
 ## 依赖变更
-* 
\[COMMON][[Linkis-1808]](https://github.com/apache/incubator-linkis/pull/1808) 
commons-lang 升级到 commons-lang3
 * \[MDS][[Linkis-1947]](https://github.com/apache/incubator-linkis/pull/1947) 
mysql-connector-java 从 5.1.34 升级到 8.0.16
-* \[ECP][[Linkis-1950]](https://github.com/apache/incubator-linkis/pull/1950) 
hive-exec 从 2.3.3 升级至 2.3.4
-* \[ECP][[Linkis-1951]](https://github.com/apache/incubator-linkis/pull/1951) 
hive-jdbc 从 1.2.1 升级至 2.3.4
-* \[ECP][[Linkis-1968]](https://github.com/apache/incubator-linkis/pull/1968) 
去除有安全问题的 log4j-1.2.17
-* \[ECP][[Linkis-1974]](https://github.com/apache/incubator-linkis/pull/1974) 
protobuf-java 版本升级至 3.15.8
-* \[ECP][[Linkis-2021]](https://github.com/apache/incubator-linkis/pull/2021) 
移除 Flink 模块的一些依赖包
+* \[ECP][[Linkis-1951]](https://github.com/apache/incubator-linkis/pull/1951) 
hive-jdbc 从 1.2.1 升级至 2.3.3
+* \[ECP][[Linkis-1968]](https://github.com/apache/incubator-linkis/pull/1974) 
protobuf-java 版本升级至 3.15.8
+* \[ECP][[Linkis-2021]](https://github.com/apache/incubator-linkis/pull/2021) 
移除 Flink 模块的一些冗余依赖包
 * \[RPC][[Linkis-2018]](https://github.com/apache/incubator-linkis/pull/2018) 
统一 json4s 的版本
 
 ## 致谢
-Apache Linkis(incubating) 
1.1.1的发布离不开Linkis社区的贡献者,感谢所有的社区贡献者,包括但不仅限于以下Contributors(排名不发先后): Alexyang, 
Casion, David hua, GodfreyGuo, Jack Xu, Zosimer, allenlliu, casionone, ericlu, 
huapan123456, husofskyzy, iture123, legendtkl, [email protected], 
maidangdang44, peacewong, pengfeiwei, seedscoder, weixiao, xiaojie19852006, 
めぐみん, 李为
\ No newline at end of file
+Apache Linkis(incubating) 
1.1.2的发布离不开Linkis社区的贡献者,感谢所有的社区贡献者,包括但不仅限于以下Contributors(排名不发先后): Alexyang, 
Casion, David hua, GodfreyGuo, Jack Xu, Zosimer, allenlliu, casionone, ericlu, 
huapan123456, husofskyzy, iture123, legendtkl, [email protected], 
maidangdang44, peacewong, pengfeiwei, seedscoder, weixiao, xiaojie19852006, 
めぐみん, 李为
\ No newline at end of file
diff --git a/i18n/zh-CN/docusaurus-plugin-content-docs/current/release.md 
b/i18n/zh-CN/docusaurus-plugin-content-docs/current/release.md
index a570f2ab1..d4cc62a1a 100644
--- a/i18n/zh-CN/docusaurus-plugin-content-docs/current/release.md
+++ b/i18n/zh-CN/docusaurus-plugin-content-docs/current/release.md
@@ -2,28 +2,35 @@
 title: 版本总览
 sidebar_position: 0.1
 --- 
-- [代理用户模式介绍](/architecture/proxy_user.md)
-- [UDF函数介绍和使用指引](/user_guide/udf.md)
-- [引擎物料刷新HTTP接口](/api/http/engineconn-plugin-refesh.md)
-- [UDF相关的HTTP接口](/api/http/udf-api.md)
-- [UDF相关的表结构](/table/udf-table.md)
-- [openLooKeng的引擎的实现](/blog/2022/03/20/openlookeng)
-- [openLooKeng的使用](/engine_usage/openlookeng.md)
-- [版本的Release-Notes](release-notes-1.1.1.md)
+- [无HDFS模式的精简化部署](/deployment/deploy_linkis_without_hdfs.md)
+- [Sqoop引擎的使用](/engine_usage/sqoop.md)
+- [历史任务查询HTTP接口](/api/http/jobhistory-api.md)
+- [版本的Release-Notes](release-notes-1.1.2.md)
 
 ## 参数变化 
 
 
 | 模块名(服务名)| 类型  |     参数名                                                | 默认值 
            | 描述                                                    |
 | ----------- | ----- | 
-------------------------------------------------------- | ---------------- | 
------------------------------------------------------- |
-|ec-openlookeng | 新增  | linkis.openlookeng.engineconn.concurrent.limit        
| 100|并发限制 |
-|ec-openlookeng | 新增  | linkis.openlookeng.http.connectTimeout        | 60L   
| 客户端请求的超时时间 基于OKhttp构建的http请求          |
-|ec-openlookeng | 新增  | linkis.openlookeng.http.readTimeout          |60L |    
客户端读取超时 基于OKhttp构建的http请求                             |
-|ec-openlookeng | 新增  | linkis.openlookeng.url                       | 
http://127.0.0.1:8080| openlookeng服务                                  |
-|ec-openlookeng | 新增  | linkis.openlookeng.catalog                  | system| 
catalog|
-|ec-openlookeng | 新增  | linkis.openlookeng.schema                  |         | 
schema    |
-|ec-openlookeng | 新增  | linkis.openlookeng.source                 |global| 
source  |                            |              
+|common   | 新增   |linkis.codeType.runType.relation             | 
sql=>sql\|hql\|jdbc\|hive\|psql\|fql,<br/>python=>python\|py\|pyspark,<br/>java=>java,scala=>scala,<br/>shell=>sh\|shell
 |codeType和runType的映射关系|
+|rpc      | 新增  | linkis.rpc.spring.params.enable             | false   | 
控制RPC模块的ribbon模式参数开关|
+|ec       | 新增  | linkis.engineconn.max.parallelism           |300 |    
异步执行支持设置并发作业组数     |
+|ec       | 新增  | linkis.engineconn.async.group.max.running   | 10|            
                       |
+|ec-flink | 新增  | linkis.flink.execution.attached                 | true|      
                           |
+|ec-flink | 新增  | linkis.flink.kerberos.enable                    | false|     
                           |
+|ec-flink | 新增  | linkis.flink.kerberos.login.contexts            | 
Client,KafkaClient|                  |
+|ec-flink | 新增  | linkis.flink.kerberos.login.keytab              | |          
                         |
+|ec-flink | 新增  | linkis.flink.kerberos.login.principal           | |          
                         |
+|ec-flink | 新增  | linkis.flink.kerberos.krb5-conf.path            | |          
                         |
+|ec-flink | 新增  | linkis.flink.params.placeholder.blank           | \\0x001|   
                         |
+|ec-sqoop | 新增  | sqoop.task.map.memory                           | 2|         
                        |
+|ec-sqoop | 新增  | sqoop.task.map.cpu.cores                        | 1|         
                        |
+|ec-sqoop | 新增  | sqoop.params.name.mode                         | sqoop.mode| 
                       |
+|ec-sqoop | 新增  | sqoop.params.name.prefix                        | 
sqoop.args.|                     |
+|ec-sqoop | 新增  | sqoop.params.name.env.prefix                    |sqoop.env.| 
                    |             
+|ec-sqoop | 新增  | linkis.hadoop.site.xml                     
|\/etc\/hadoop/\conf\/core-site.xml;<br/>\/etc\/hadoop\/conf\/hdfs-site.xml;<br/>\/etc\/hadoop\/conf\/yarn-site.xml;<br/>\/etc\/hadoop\/conf\/mapred-site.xml|
  设置sqoop加载hadoop参数文件位置                   |          
+|ec-sqoop | 新增  | sqoop.fetch.status.interval                    |5s|          
  设置获取sqoop执行状态的间隔时间         |                       
 
 ## 数据库表变化 
 
-详细见代码仓库(https://github.com/apache/incubator-linkis) 
对应分支中的升级schema`db/upgrade/1.1.1_schema`文件
+无变化


---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]

Reply via email to