casionone commented on code in PR #666:
URL: https://github.com/apache/linkis-website/pull/666#discussion_r1089780915


##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/about/introduction.md:
##########
@@ -15,15 +15,15 @@ Linkis 自2019年开源发布以来,已累计积累了700多家试验企业和
 ## 核心特点
 - **丰富的底层计算存储引擎支持**: 
     
**目前支持的计算存储引擎**:Spark、Hive、Flink、Python、Pipeline、Sqoop、openLooKeng、Presto、ElasticSearch、JDBC和Shell等。
  
-    **正在支持中的计算存储引擎**:Trino(计划1.3.1)、SeaTunnel(计划1.3.1)等。  
+    **待支持的计算存储引擎**:Trino(计划1.3.1)、SeaTunnel(计划1.3.1)等。  
     **支持的脚本语言**:SparkSQL, HiveQL, Python, Shell, Pyspark, R, Scala 和JDBC 等。    
 - **强大的计算治理能力**: 基于Orchestrator、Label Manager和定制的Spring Cloud 
Gateway等服务,Linkis能够提供基于多级标签的跨集群/跨IDC 
细粒度路由、负载均衡、多租户、流量控制、资源控制和编排策略(如双活、主备等)支持能力。  
 - **全栈计算存储引擎架构支持**: 能够接收、执行和管理针对各种计算存储引擎的任务和请求,包括离线批量任务、交互式查询任务、实时流式任务和存储型任务。
-- **资源管理能力**:  ResourceManager 不仅具备对 Yarn 和 Linkis EngineManager 
的资源管理能力,还将提供基于标签的多级资源分配和回收能力,让 ResourceManager 具备跨集群、跨计算资源类型的强大资源管理能力。
+- **资源管理能力**:  Linkis中的ResourceManager 不仅具备对 Yarn 和 Linkis EngineManager 
的资源管理能力,还将提供基于标签的多级资源分配和回收能力,让 ResourceManager 具备跨集群、跨计算资源类型的强大资源管理能力。
 - **统一上下文服务**:为每个计算任务生成context 
id,跨用户、系统、计算引擎的关联管理用户和系统资源文件(JAR、ZIP、Properties等),结果集,参数变量,函数等,一处设置,处处自动引用。
 - **统一物料**: 系统和用户级物料管理,可分享和流转,跨用户、系统共享物料。
-- **统一数据源管理**: 提供了hive、es、mysql、kafka类型数据源的增删查改、版本控制、连接测试等功能。
-- **数据源对应的元数据查询**: 提供了hive、es、mysql、kafka元数据的数据库、表、分区查询。
+- **统一数据源管理**: 提供了基于hive、es、mysql、kafka类型数据源的增删查改、版本控制、连接测试等功能。
+- **数据源对应的元数据管理**: 提供了基于hive、es、mysql、kafka元数据的数据库、表、分区管理。

Review Comment:
   ->  `**数据源对应的元数据查询**: 提供了基于hive、es、mysql、kafka元数据的数据库、表、分区查询。`
   
   En docs need to be modified together 



-- 
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

To unsubscribe, e-mail: [email protected]

For queries about this service, please contact Infrastructure at:
[email protected]


---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]

Reply via email to