yagagagaga commented on code in PR #1072:
URL: https://github.com/apache/doris-website/pull/1072#discussion_r1765335769


##########
docs/sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md:
##########
@@ -32,32 +32,56 @@ ALTER SYSTEM ADD BACKEND
 
 ### Description
 
-This statement is used to manipulate nodes within a system. (Administrator 
only!)
+The ADD BACKEND command is used to add one or more backend nodes to a Doris 
OLAP database cluster. This command allows administrators to specify the host 
and port of the new backend nodes, along with optional properties that 
configure their behavior.
 
 grammar:
 
 ```sql
 -- Add nodes (add this method if you do not use the multi-tenancy function)
-   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...];
-```
+   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...] 
[PROPERTIES ("key"="value", ...)];
+````
 
- illustrate:
+### Parameters
 
-1. host can be a hostname or an ip address
-2. heartbeat_port is the heartbeat port of the node
-3. Adding and deleting nodes is a synchronous operation. These two operations 
do not consider the existing data on the node, and the node is directly deleted 
from the metadata, please use it with caution.
+* `host` can be a hostname or an ip address of the backend node while 
`heartbeat_port` is the heartbeat port of the node
+* `PROPERTIES ("key"="value", ...)`: (Optional) A set of key-value pairs that 
define additional properties for the backend nodes. These properties can be 
used to customize the configuration of the backends being added. Available 
properties include:
+
+    * tag.location: Specifies the resource group where the backend node 
belongs. For example, PROPERTIES ("tag.location" = "groupb").
+    * tag.location: Specifies the resource group where the backend node 
belongs. For example, PROPERTIES ("tag.compute_group_name" = "groupb").

Review Comment:
   It means `tag.compute_group_name`?



##########
docs/sql-manual/sql-statements/Database-Administration-Statements/SET-DEFAULT-STORAGE-VAULT.md:
##########
@@ -0,0 +1,57 @@
+---
+{
+    "title": "SET-DEFAULT-STORAGE-VAULT",
+    "language": "en"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## SET-DEFAULT-STORAGE-VAULT
+
+### Name
+
+SET DEFAULT STORAGE VAULT
+
+### Description
+
+This statement is used to set a default storage vault in Doris. The default 
storage vault is used to store data of internal or system tables. If a default 
storage vault is not set, Doris will not function properly. The default storage 
vault cannot be removed once it is set.
+
+### Syntax
+
+```sql
+SET vault_name DEFAULT STORAGE VAULT

Review Comment:
   SET vault_name AS DEFAULT STORAGE VAULT



##########
docs/sql-manual/sql-statements/Show-Statements/SHOW-CACHE-HOTSPOT.md:
##########
@@ -0,0 +1,61 @@
+---
+{
+    "title": "SHOW-CACHE-HOTSPOT",
+    "language": "en"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## Description
+
+This statement is used to display the hotspot information of file cache.
+
+## Syntax
+
+```sql
+   SHOW CACHE HOTSPOT '/[compute_group_name/table_name]';
+```
+
+## Parameters
+
+1. compute_group_name : Name of compute group.
+2. table_name : Name of table.
+
+## Example
+
+1. View the table creation statement of a table
+
+    ```sql
+    SHOW CACHE HOTSPOT '/';
+    ```
+
+## Related Commands
+
+ - [WARMUP CACHE]
+
+## References
+
+ - [MANAGING FILE CACHE]

Review Comment:
   It will be a hyperlink?



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/compilation-and-deployment.md:
##########
@@ -71,73 +84,189 @@ cat /etc/foundationdb/fdb.cluster
 cloud_ssb:[email protected]:4500
 ```
 
-### 启停
+### 3.2 启动与停止
 
-Meta Service 依赖 JAVA 运行环境,并使用 OpenJDK 17。在启动前这两个服务前,请确保已正确设置 `export 
JAVA_HOME` 环境变量。
+*环境要求*
 
-`doris_cloud` 部署的 `bin` 目录下提供了启停脚本,调用对应的启停脚本即可完成启停。
+确保已正确设置 `JAVA_HOME` 环境变量,指向 OpenJDK 17,进入 `ms` 目录。
 
-在 `ms` 目录中:
+*启动命令*
 
 ```Shell
 export JAVA_HOME=${path_to_jdk_17}
 bin/start.sh --daemon
+```
+
+*停止命令*
 
+``` shell
 bin/stop.sh
 ```
 
-若 Meta Service 进程正常启动,将能在 `doris_cloud.out` 文件中观察到 `successfully started` 
的输出信息。以下为一个启动的输出信息示例
+*验证启动*
 
-```
-2024-09-02 21:03:53 try to start doris_cloud
-process working directory: "/mnt/disk1/gavinchou/debug/doris-cloud/ms"
-pid=810125 written to file=./bin/doris_cloud.pid
-version:{doris_cloud-0.0.0-debug} 
code_version:{commit=7d94417e6ca10f3c77bea07caf4994af155b6e99 time=2024-09-02 
21:03:01 +0800} build_info:{initiator=gavinchou@VM-10-11-centos 
build_at=2024-09-02 21:03:01 +0800 build_on=NAME="TencentOS Se
-rver" VERSION="3.1 (Final)" }
-
-run doris_cloud as meta_service and recycler by default
-meta-service started
-recycler started
-successfully started brpc listening on port=6000 time_elapsed_ms=139
-```
+检查 `doris_cloud.out` 文件中是否有 `successfully started` 的输出信息。
 
-## 将数据回收功能作为单独进程部署
+## 4. 数据回收功能独立部署(可选)
 
-在一些场景中为了更好的隔离性以及稳定性,我们需要将元数据操作功能和数据回收功能分开不同的进程部署。
+*准备工作*
 
-在成功部署并启动 Meta Service 之后,Doris 存算分离模式的底座便已完成搭建。
+1. 创建新的工作目录(如 `recycler`)。
+2. 复制 `ms` 目录内容到新目录:
 
-`ms`目录也可以用于启动为数据回收功能进程,只需使用不同启动参数启动即可。
-需要注意的是,需要单独准备一个独立的工作目录,二进制以及配置文件都是单独的一份。
+   ```shell
+   cp -r ms recycler
+   ```
 
-使用以下命令从`ms`目录中拷贝二进制文件至一个新的 Recycler 工作目录`re`。
-```Shell
-cp -r ms re
-```
+*配置*
 
-Meta Service 启动脚本可以接受 `--meta-service` 和 `--recycler` 两个参数指定的是当前 Meta Service 
进程拥有什么样的能力。
-前者为元数据操作(主要提供一些在线实时元数据操作), 后者为数据回收功能(离线异步数据回收等流程)。
+在新目录的配置文件中修改 BRPC 监听端口。
 
-在 re 目录下对配置文件中的 BRPC 的监听端口号按需进行必要修改,然后使用 `--recycler` 参数启动即可。
+*启动数据回收功能*
 
 ```Shell
 export JAVA_HOME=${path_to_jdk_17}
 bin/start.sh --recycler --daemon
-
-bin/stop.sh
 ```
 
-这样我们得到了一个只有数据回收功能的 Meta Service 进程,它不负责元数据的操作,**在 FE BE 的配置中不要将只有回收功能的 Meta 
Service 进程其作为 `meta_service_endpoint` 配置的目标**。
+*启动仅元数据操作功能*
 
-同理,我们通过控制启动参数,也可以得到一个只有元数据操作功能的 Meta Service 进程
-在 ms 目录下使用以下参数启动
 ```Shell
 export JAVA_HOME=${path_to_jdk_17}
 bin/start.sh --meta-service --daemon
+```
 
-bin/stop.sh
+## 5. FE 和 BE 的启动流程
+
+本节详细说明了在存算分离架构下启动 FE(Frontend)和 BE(Backend)的步骤。
+
+### 5.1 启动顺序
+
+1. 以 MASTER 角色启动实例的第一个 FE
+2. 向实例中添加其他 FE 和 BE
+3. 添加第一个 Storage Vault
+
+### 5.2 启动 MASTER 角色的 FE
+
+#### 5.2.1 配置 fe.conf
+
+在 `fe.conf` 文件中,需要配置以下关键参数:
+
+1. `cluster_id`
+   - 描述:存算分离架构下集群的唯一标识符
+   - 格式:int 类型
+   - 示例:`12345678`
+
+2. `meta_service_endpoint`
+   - 描述:Meta Service 的地址和端口
+   - 格式:`IP地址:端口号`
+   - 示例:`127.0.0.1:5000`, 可以用逗号分割配置多个meta service。
+
+#### 5.2.2 启动 FE
+
+启动命令示例:
+
+```bash
+bin/start_fe.sh --daemon
+```
+
+### 5.3 添加其他 FE 节点
+
+使用以下 SQL 命令添加额外的 FE 节点:
+
+```sql
+ALTER SYSTEM ADD FOLLOWER "host:port";
+```
+
+将 `host:port` 替换为实际的 FE 节点地址和端口。

Review Comment:
   这里需要提示默认端口为9010



##########
docs/compute-storage-decoupled/managing-storage-vault.md:
##########
@@ -223,15 +205,13 @@ CREATE STORAGE VAULT IF NOT EXISTS ssb_hdfs_vault
 ```SQL
 CREATE STORAGE VAULT IF NOT EXISTS ssb_s3_vault
     PROPERTIES (
-        "type"="S3",                                            -- required
-        "s3.endpoint" = "oss-cn-beijing.aliyuncs.com",          -- required
-        "s3.external_endpoint" = "oss-cn-beijing.aliyuncs.com", -- required
-        "s3.bucket" = "sample_bucket_name",                     -- required
-        "s3.region" = "bj",                                     -- required
-        "s3.root.path" = "big/data/prefix",                     -- required
-        "s3.access_key" = "ak",                                 -- required
-        "s3.secret_key" = "sk",                                 -- required
-        "provider" = "cos",                                     -- required
+        "type"="S3",                                   -- required
+        "s3.endpoint" = "oss-cn-beijing.aliyuncs.com", -- required
+        "s3.region" = "bj",                            -- required
+        "s3.root.path" = "big/data/prefix",            -- required
+        "s3.access_key" = "ak",                        -- required
+        "s3.secret_key" = "sk",                        -- required
+        "provider" = "cos",                            -- required

Review Comment:
   should not end with `,`



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/file-cache.md:
##########
@@ -26,37 +26,125 @@ under the License.
 
 在存算分离架构下,数据存储在远端存储上。为了加速数据访问,Doris 实现了一个基于本地硬盘的缓存机制,并提供两种高效的缓存管理策略:LRU 策略和 TTL 
策略,对索引相关的数据进行了优化,旨在最大程度上缓存用户常用数据。
 
-在涉及多计算集群(Compute Cluster)的应用场景中,Doris 
提供缓存预热功能。当新计算集群建立时,用户可以选择对特定的数据(如表或分区)进行预热,以提高查询效率。
+在涉及多计算组(Compute Group)的应用场景中,Doris 
提供缓存预热功能。当新计算组建立时,用户可以选择对特定的数据(如表或分区)进行预热,以提高查询效率。
 
-## 缓存空间管理
+## 缓存类型
 
-### 缓存数据
+File Cache 分为 TTL、LRU 和 Disposable 三种类型,各种操作读取默认会检查所有类型是否可以命中,但是各种操作写入 File 
Cache 的类型有差异。
 
-数据主要通过以下三种方式进入缓存:
+| 操作          | 未命中 File Cache 数据进入 File Cache 的类型 | 写入数据进入 File Cache 的类型     
   | 读取数据使用 Cache |
+| ------------- | -------------------------------------- | ---------- | 
----------------- |
+| 导入          | TTL / LRU (insert into ... from select) | TTL / LRU     | ALL  
            |
+| 查询          | TTL / LRU                                 | N/A        | ALL   
         |
+| schema change | Disposable                             | TTL / LRU     | ALL 
              |
+| compaction    | Disposable                             | TTL / LRU     | ALL 
              |
+| 预热          | N/A                                    | TTL /L LRU     | ALL  
             |
 
-- **导入**:新导入的数据将异步写入缓存,以加速数据的首次访问。
-- **查询**:如果查询所需数据不在缓存中,系统将从远端存储读取该数据至内存,并同时写入缓存,以便后续查询。
-- 
**主动预热**:尽管远端存储的数据可实现多计算集群共享,但缓存数据并不会共享。当新计算集群创建时,缓存为空,此时可主动预热,使集群迅速从远端存储拉取所需数据至本地缓存。
 
-### 缓存淘汰
+## 缓存策略
 
-Doris 支持 LRU 和 TTL 两种缓存管理策略。
+Doris 提供了两种主要的缓存管理策略:LRU(最近最少使用)和 
TTL(时间到期)。这些策略旨在优化数据访问效率和缓存使用,确保系统在高负载情况下仍能保持良好的性能。
 
-- **LRU 策略**:作为默认策略,LRU 
通过维护一个队列来管理数据。当队列中某块数据被访问时,该数据将被移至队列前端。新写入缓存的数据同样置于队列前端,以避免过早被淘汰。当缓存空间已满时,队列尾部的数据将被优先淘汰。
-- **TTL 策略**:旨在确保新导入的数据在缓存中保留一段时间不被淘汰(过期时间 = 导入时间 + 设定的超时时间)。TTL 
策略下的数据在缓存中具有最高地位,且 TTL 数据之间互相平等。当缓存已满时,系统会通过淘汰 LRU 队列中的数据来确保 TTL 数据能够写入缓存。同时,所有 
TTL 策略下的数据并不会因过期时间差异而被区别对待。当 TTL 数据占据全部缓存空间时,新导入的数据(无论是否设置 
TTL)或从远端存储拉取的冷数据,均不会被写入缓存。
-  -  TTL 策略可以应用于期望在本地持久化的小规模数据表。对于此类常驻表,可设置一个相对较大的 TTL 
值,以确保其在缓存中的数据不会因其他大型数据表的查询操作而被过早淘汰。
+### LRU 策略
 
-  -  此外,对于采用动态分区策略的数据表,可以根据分区中 Hot Partition 的活跃时间,针对性地设定相应的 TTL 值,从而保障 Hot 
Partition 的数据在缓存中的留存,避免其被 Cold Partition 的查询操作所影响。
+LRU 
策略是默认的缓存管理策略。它通过维护一个队列来管理缓存中的数据。当队列中的某块数据被访问时,该数据将被移至队列的前端。新写入缓存的数据同样会被置于队列前端,以避免过早被淘汰。当缓存空间已满时,队列尾部的数据将被优先淘汰。
 
-  -  目前,系统暂不支持直接查看 TTL 数据在缓存中的占比。
+### TTL 策略
 
-### 缓存预热
+TTL 策略旨在确保新导入的数据在缓存中保留一段时间不被淘汰(过期时间 = 导入时间 + 设定的超时时间)。在 TTL 
策略下,数据在缓存中具有最高优先级,且所有 TTL 数据之间互相平等。当缓存已满时,系统会通过淘汰 LRU 队列中的数据来确保 TTL 数据能够写入缓存。
+
+*应用场景*
+- TTL 策略适用于期望在本地持久化的小规模数据表。对于常驻表,可以设置较大的 TTL 值,以确保其数据不会因其他大型数据表的查询操作而被过早淘汰。
+- 对于采用动态分区策略的数据表,可以根据 Hot Partition 的活跃时间,设定相应的 TTL 值,以保障 Hot Partition 
数据在缓存中的留存。
+
+*注意事项*
+- 目前,系统不支持直接查看 TTL 数据在缓存中的占比。
+
+
+## 缓存淘汰
+
+### 淘汰步骤
+
+当 Cache 空间不够用时,Doris 采用如下步骤淘汰各类型 Cache 中的数据,直到释放出足够的空间为止。
+
+1. 淘汰 disposable 和 LRU 中的过期数据,过期数据是指自上次访问以来超过指定有效期的缓存。LRU 和 Disposable 
缓存的有效时间分别为:
+   - LRU 索引缓存:7 天
+   - LRU 普通数据:1 天
+   - LRU Disposable(临时数据):1 小时
+
+2. 如果 `file_cache_enable_evict_from_other_queue_by_size` 
开关已打开且当前队列的缓存大小和数量未超限(该限制可通过 `file_cache_path` 进行设置,默认限制为总 File Cache 容量的 
85%),则可以强制从 Disposable 类型中淘汰数据。
+
+3. 根据 LRU 策略释放自身的数据。
+
+*注意*
+
+TTL 中的数据过期之后会移动到 LRU,之后按照 LRU 淘汰。
+
+### TTL 淘汰
+
+TTL 类型缓存在缓存管理中具有最高优先级,可以抢占其他缓存的空间,直到剩余空间满足要求。
+
+- 为保证其他类型缓存的生存空间,TTL 的抢占有限制,即 TTL 不能超过总 Cache 容量的 90%(可由 `be` 配置 
`max_ttl_cache_ratio` 指定)。如果超过这个限制,将不会淘汰任何其他类型缓存的数据。
+- 如果开启了 TTL 自身支持 LRU 淘汰策略的开关(`be` 配置 `enable_ttl_cache_evict_using_lru = 
true`),则 TTL 可依照 LRU 淘汰自身数据;否则将不会淘汰任何数据,可能导致访问跳过 File Cache 直接访问远端数据,从而影响性能。
+- TTL 类型缓存的后台会有线程异步扫描 TTL 的过期时间。如果过期,则将 TTL 降级为 Normal,并依据上述 Normal 淘汰顺序进行删除。
 
-在存算分离模式下,Doris 
支持多计算集群部署,各计算集群间共享数据但不共享缓存。当新计算集群创建时,其缓存处于空置状态,此时查询性能可能受到影响。为此,Doris 
提供缓存预热功能,允许用户主动从远端存储拉取数据至本地缓存。目前,该功能支持以下三种模式:
+### 删除淘汰
 
-- **计算集群间预热**:将计算集群 A 的缓存数据预热至计算集群 B 中。Doris 
会定期收集各计算集群在一段时间内被访问的表/分区的热点信息,并作为内部表存储下来,预热时根据这些信息选择性地预热某些表/分区。
-- **表数据预热**:指定将表 A 的数据预热至新计算集群。
-- **分区数据预热**:指定将表 A 的分区`p1`的数据预热至新集群。
+当文件被删除时,其在缓存中的数据也会被淘汰。
+
+## 缓存预热
+
+在存算分离模式下,Doris 支持多计算组部署,各��算组间共享数据但不共享缓存。新计算组创建时,其缓存为空,可能影响查询性能。为此,Doris 
提供缓存预热功能,允许用户从远端存储主动拉取数据至本地缓存。该功能支持以下三种模式:

Review Comment:
   有乱码了



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/Show-Statements/SHOW-CACHE-HOTSPOT.md:
##########
@@ -0,0 +1,61 @@
+---
+{
+    "title": "SHOW-CACHE-HOTSPOT",
+    "language": "zh-CN"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## 描述
+
+该语句用于显示文件缓存的热点信息。
+
+## 语法
+
+```sql
+   SHOW CACHE HOTSPOT '/[compute_group_name/table_name]';
+```
+
+## 参数
+
+1. compute_group_name : 计算组的名称。
+2. table_name : 表的名称。
+
+## 示例
+
+1. 查看某个表的创建语句
+
+    ```sql
+    SHOW CACHE HOTSPOT '/';
+    ```
+
+## 相关命令
+
+ - [WARMUP CACHE]
+
+## 参考
+
+ - [管理文件缓存]

Review Comment:
   这里应该是个链接,链到相关文档去吗?



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/managing-compute-cluster.md:
##########
@@ -24,335 +24,109 @@ specific language governing permissions and limitations
 under the License.
 -->
 
-在存算分离架构下,可以将一个或多个计算节点 (BE) 组成一个计算集群 (Compute Cluster)。本文档介绍如何使用计算集群,其中涉及的操作包括:
+在存算分离架构下,可以将一个或多个计算节点 (BE) 组成一个计算组 (Compute Group)。本文档介绍如何使用计算组,其中涉及的操作包括:
 
-- 查看所有计算集群
-- 计算集群授权
-- 在用户级别绑定计算集群 (`default_cloud_cluster`) 以达到用户级别的隔离效果
+- 查看所有计算组
+- 计算组授权
+- 在用户级别绑定计算组 (`default_compute_group`) 以达到用户级别的隔离效果
 
-:::info 备注
-
-本文涉及的 `cluster` 均表示计算集群。
-
-:::
+*注意*
+3.0.2 之前的版本中叫做计算集群(Compute Cluster)。
 
-## 查看所有计算集群
+## 查看所有计算组
 
-可通过 `show clusters` 查看当前仓库拥有的所有计算集群。
+可通过 `SHOW COMPUTE GROUPS` 查看当前仓库拥有的所有计算组。
 
 ```SQL
-> mysql show clusters;
-+-------------------------------+------------+------------+
-| cluster                       | is_current | users      |
-+-------------------------------+------------+------------+
-| regression_test_cluster_name0 | FALSE      | root, jack |
-| regression_test_cluster_name5 | FALSE      |            |
-+-------------------------------+------------+------------+
-2 rows in set (0.01 sec)
-
-mysql SET PROPERTY 'default_cloud_cluster' = 'regression_test_cluster_name5';
-Query OK, 0 rows affected (0.01 sec)
+SHOW COMPUTE GROUPS;
 ```
 
-## 授予计算集群访问权限
+## 添加计算组
 
-使用 MySQL Client 创建一个新用户。
+在添加 BE 时,会自动添加计算组。
 
-**语法**
+## 授予计算组访问权限
 
 ```SQL
-GRANT USAGE_PRIV ON CLUSTER {cluster_name} TO {user}
+GRANT USAGE_PRIV ON COMPUTE GROUP {compute_group_name} TO {user}
 ```
 
-**示例**
+## 撤销计算组访问权限
 
 ```SQL
-// 使用 Root 账号在 MySQL Client 中创建 Jack 用户
-mysql CREATE USER jack IDENTIFIED BY '123456' DEFAULT ROLE "admin";
-Query OK, 0 rows affected (0.01 sec)
-
-mysql GRANT USAGE_PRIV ON CLUSTER regression_test_cluster_name0 TO jack;
-Query OK, 0 rows affected (0.01 sec)
-
-// 使用 Jack 登录 MySQL Client
-mysql use d1@regression_test_cluster_name0;
-Database changed
-
-mysql show grants for jack\G
-*************************** 1. row ***************************
- UserIdentity: 'jack'@'%'
-     Password: Yes
-  GlobalPrivs: Admin_priv  (false)
- CatalogPrivs: NULL
-DatabasePrivs: internal.information_schema: Select_priv  (false)
-   TablePrivs: NULL
-ResourcePrivs: NULL
- CloudCluster: regression_test_cluster_name0: Usage_priv  (false)
-   CloudStage: NULL
-1 row in set (0.00 sec)
-
-mysql select * from t1;
-+------+------+-------+
-| id   | name | score |
-+------+------+-------+
-|    1 | aaa  |    20 |
-|    2 | bbb  |   320 |
-|    3 | ccc  |    30 |
-|    4 | ddd  |   120 |
-|    5 | eee  |    30 |
-|    6 | fff  |    30 |
-|    7 | ggg  |    90 |
-|    8 | hhh  |    30 |
-+------+------+-------+
-8 rows in set (12.70 sec)
-
-mysql insert into t1 (id, name, score) values (8, "hhh", 30);
-Query OK, 1 row affected (7.22 sec)
-{'label':'insert_6f40c1713baf4d61_9c33c0962c68ab07', 'status':'VISIBLE', 
'txnId':'5462662627547136'}
+REVOKE USAGE_PRIV ON COMPUTE GROUP {compute_group_name} FROM {user}
 ```
 
-若向 Jack 用户授权一个不存在的计算集群,系统不会报错,而会在执行相应的 `use @cluster` 时报错。
-
-```SQL
-mysql GRANT USAGE_PRIV ON CLUSTER not_exist_cluster TO jack;
-Query OK, 0 rows affected (0.05 sec)
-
-mysql show grants for jack\G
-*************************** 1. row ***************************
- UserIdentity: 'jack'@'%'
-     Password: Yes
-  GlobalPrivs: Admin_priv  (false)
- CatalogPrivs: NULL
-DatabasePrivs: internal.information_schema: Select_priv  (false)
-   TablePrivs: NULL
-ResourcePrivs: NULL
- CloudCluster: not_exist_cluster: Usage_priv  (false)
-   CloudStage: NULL
-1 row in set (0.00 sec)
-
-切换到 Jack 账号,执行 use @not_exist_cluster,将出现提示 not_exist_cluster 不存在的报错提示
-
-mysql use information_schema@not_exist_cluster;
-No connection. Trying to reconnect...
-Connection id:    1
-Current database: *** NONE ***
-
-ERROR 5091 (42000): Cluster not_exist_cluster not exist
-```
-
-## 撤销计算集群访问权限
-
-**语法**
-
-```SQL
-REVOKE USAGE_PRIV ON CLUSTER {cluster_name} FROM {user}
-```
-
-**示例**
-
-```SQL
-// 使用 Root 账号在 MySQL Client 中创建 Jack 用户
-mysql REVOKE USAGE_PRIV ON CLUSTER regression_test_cluster_name0 FROM jack;
-Query OK, 0 rows affected (0.01 sec)
-
-mysql show grants for jack\G
-*************************** 1. row ***************************
- UserIdentity: 'jack'@'%'
-     Password: Yes
-  GlobalPrivs: Admin_priv  (false)
- CatalogPrivs: NULL
-DatabasePrivs: internal.information_schema: Select_priv  (false)
-   TablePrivs: NULL
-ResourcePrivs: NULL
- CloudCluster: NULL
-   CloudStage: NULL
-1 row in set (0.01 sec)
-```
-
-## 设置默认计算集群 
-
-用户可从多个计算集群选择设置为默认计算集群。
-
-**语法**
+## 设置默认计算组 
 
-为当前用户设置默认计算集群:
+为当前用户设置默认计算组:
 
 ```SQL
-SET PROPERTY 'default_cloud_cluster' = '{clusterName}';
+SET PROPERTY 'default_compute_group' = '{clusterName}';
 ```
 
-为其他用户设置默认计算集群(此操作需要 Admin 权限):
+为其他用户设置默认计算组(此操作需要 Admin 权限):
 
 ```SQL
-SET PROPERTY FOR {user} 'default_cloud_cluster' = '{clusterName}';
+SET PROPERTY FOR {user} 'default_compute_group' = '{clusterName}';
 ```
 
-查看当前用户默认计算集群,返回结果中`default_cloud_cluster` 的值即为默认计算集群:
+查看当前用户默认计算组,返回结果中`default_compute_group` 的值即为默认计算组:
 
 ```SQL
 SHOW PROPERTY;
 ```
 
-查看其他用户默认计算集群,此操作需要当前用户具备相关权限,返回结果中`default_cloud_cluster` 的值即为默认计算集群:
+查看其他用户默认计算组,此操作需要当前用户具备相关权限,返回结果中`default_compute_group` 的值即为默认计算组:
 
 ```SQL
 SHOW PROPERTY FOR {user};
 ```
 
-查看当前仓库下所有可用的计算集群:
+查看当前仓库下所有可用的计算组:
 
 ```SQL
-SHOW CLUSTERS;
+SHOW COMPUTE GROUPS;
 ```
 
 :::info 备注
 
 - 若当前用户拥有 Admin 角色,例如:`CREATE USER jack IDENTIFIED BY '123456' DEFAULT ROLE 
"admin"`,则:
-  - 可以为自身以及其他用户设置默认计算集群;
+  - 可以为自身以及其他用户设置默认计算组;
   - 可以查看自身以及其他用户的 `PROPERTY`。
 - 若当前用户无 Admin 角色,例如:`CREATE USER jack1 IDENTIFIED BY '123456'`,则:
-  - 可以为自身设置默认计算集群;
+  - 可以为自身设置默认计算组;
   - 可以查看自身的 `PROPERTY`;
-  - 无法查看所有计算集群,因该操作需要 `GRANT ADMIN` 权限。
-- 若当前用户未配置默认计算集群,现有系统在执行数据读写操作时将会触发错误。为解决这一问题,用户可通过执行 `use @cluster` 命令来指定当前 
Context 所使用的计算集群,或者使用 `SET PROPERTY` 语句来设置默认计算集群。
-- 若当前用户已配置默认计算集群,但随后该集群被删除,则在执行数据读写操作时同样会触发错误。用户可通过执行 `use @cluster` 命令来重新指定当前 
Context 所使用的计算集群,或者利用 `SET PROPERTY` 语句来更新默认集群设置。
+  - 无法查看所有计算组,因该操作需要 `GRANT ADMIN` 权限。
+- 若当前用户未配置默认计算组,现有系统在执行数据读写操作时将会触发错误。为解决这一问题,用户可通过执行 `use @cluster` 命令来指定当前 
Context 所使用的计算组,或者使用 `SET PROPERTY` 语句来设置默认计算组。
+- 若当前用户已配置默认计算组,但随后该集群被删除,则在执行数据读写操作时同样会触发错误。用户可通过执行 `use @cluster` 命令来重新指定当前 
Context 所使用的计算组,或者利用 `SET PROPERTY` 语句来更新默认集群设置。
 
 :::
 
-**示例**
-
-```SQL
-// 设置当前用户的默认计算集群
-mysql SET PROPERTY 'default_cloud_cluster' = 'regression_test_cluster_name0';
-Query OK, 0 rows affected (0.02 sec)
-
-// 展示当前用户的默认计算集群
-mysql show PROPERTY;
-+------------------------+-------------------------------+
-| Key                    | Value                         |
-+------------------------+-------------------------------+
-| cpu_resource_limit     | -1                            |
-| default_cloud_cluster  | regression_test_cluster_name0 |
-| exec_mem_limit         | -1                            |
-| load_mem_limit         | -1                            |
-| max_query_instances    | -1                            |
-| max_user_connections   | 100                           |
-| quota.high             | 800                           |
-| quota.low              | 100                           |
-| quota.normal           | 400                           |
-| resource.cpu_share     | 1000                          |
-| resource.hdd_read_iops | 80                            |
-| resource.hdd_read_mbps | 30                            |
-| resource.io_share      | 1000                          |
-| resource.ssd_read_iops | 1000                          |
-| resource.ssd_read_mbps | 30                            |
-| resource_tags          |                               |
-| sql_block_rules        |                               |
-+------------------------+-------------------------------+
-17 rows in set (0.00 sec)
-
-// 使用 Root 账号在 MySQL Client 中创建 Jack 用户
-mysql CREATE USER jack IDENTIFIED BY '123456' DEFAULT ROLE "admin";
-Query OK, 0 rows affected (0.01 sec)
-
-// 为 jack 用户设置默认计算集群
-mysql SET PROPERTY FOR jack 'default_cloud_cluster' = 
'regression_test_cluster_name1';
-Query OK, 0 rows affected (0.00 sec)
-
-// 查看其他用户的默认计算集群
-mysql show PROPERTY for jack;
-+------------------------+-------------------------------+
-| Key                    | Value                         |
-+------------------------+-------------------------------+
-| cpu_resource_limit     | -1                            |
-| default_cloud_cluster  | regression_test_cluster_name1 |
-| exec_mem_limit         | -1                            |
-| load_mem_limit         | -1                            |
-| max_query_instances    | -1                            |
-| max_user_connections   | 100                           |
-| quota.high             | 800                           |
-| quota.low              | 100                           |
-| quota.normal           | 400                           |
-| resource.cpu_share     | 1000                          |
-| resource.hdd_read_iops | 80                            |
-| resource.hdd_read_mbps | 30                            |
-| resource.io_share      | 1000                          |
-| resource.ssd_read_iops | 1000                          |
-| resource.ssd_read_mbps | 30                            |
-| resource_tags          |                               |
-| sql_block_rules        |                               |
-+------------------------+-------------------------------+
-17 rows in set (0.00 sec)
-```
+## 默认计算组的选择机制
 
-若用户意图设置为默认计算集群的计算集群不存在,系统会报错并提示用户使用 `SHOW CLUSTERS` 命令来查看当前仓库下所有有效的计算集群。`SHOW 
CLUSTERS` 命令将返回一个结果集,其中:
+当用户未明确设置默认计算组时,系统将自动为用户选择一个具有 Active BE 
且用户具有使用权限的计算组。在特定会话中确定默认计算组后,默认计算组将在该会话期间保持不变,除非用户显式更改了默认设置。
 
-- `Cluster` 列表示计算集群名称。
-- `is_current` 列表示当前用户是否使用此计算集群。
-- `Users` 列表示该计算集群被以下用户设置为默认计算集群。
+在不同次的会话中,若发生以下情况,系统可能会自动更改用户的默认计算组:
 
-```SQL
-mysql SET PROPERTY 'default_cloud_cluster' = 'not_exist_cluster';
-ERROR 5091 (42000): errCode = 2, detailMessage = Cluster not_exist_cluster not 
exist, use SQL 'SHOW CLUSTERS' to get a valid cluster
-
-mysql show clusters;
-+-------------------------------+------------+------------+
-| cluster                       | is_current | users      |
-+-------------------------------+------------+------------+
-| regression_test_cluster_name0 | FALSE      | root, jack |
-| regression_test_cluster_name5 | FALSE      |            |
-+-------------------------------+------------+------------+
-2 rows in set (0.01 sec)
-
-mysql SET PROPERTY 'default_cloud_cluster' = 'regression_test_cluster_name5';
-Query OK, 0 rows affected (0.01 sec)
-```
+- 用户失去了在上次会话中所选择默认计算组的使用权限
+- 有计算组被添加或移除
+- 上次所选择的默认计算组不再具有 Active BE
 
-## 默认计算集群的选择机制
+其中,情况一和情况二必定会导致系统自动选择的默认计算组更改,情况三可能会导致更改。
 
-当用户未明确设置默认计算集群时,系统将自动为用户选择一个具有 Active 
后端且用户具有使用权限的计算集群。在特定会话中确定默认计算集群后,默认计算集群将在该会话期间保持不变,除非用户显式更改了默认设置。
+## 切换计算组
 
-在不同次的会话中,若发生以下情况,系统可能会自动更改用户的默认计算集群:
-
-- 用户失去了在上次会话中所选择默认计算集群的使用权限
-- 有集群被添加或移除
-- 上次所选择的默认计算集群不再具有 Active 后端
-
-其中,情况一和情况二必定会导致系统自动选择的默认计算集群更改,情况三可能会导致更改。
-
-## 切换计算集群
-
-用户可在存算分离架构中指定使用的数据库和计算集群。
+用户可在存算分离架构中指定使用的数据库和计算组。
 
 **语法**
 
 ```SQL
-USE { [catalog_name.]database_name[@cluster_name] | @cluster_name }
+USE { [catalog_name.]database_name[@compute_group_name] | @compute_group_name }
 ```
 
-若数据库或计算集群名称包含是保留关键字,需用反引号将相应的名称 ``` 包围。
-
-**示例**
+若数据库或计算组名称包含是保留关键字,需用反引号将相应的名称 ``` 包围。

Review Comment:
   应该把\`\`\`改为\`



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md:
##########
@@ -26,38 +26,61 @@ under the License.
 
 ## ALTER-SYSTEM-ADD-BACKEND
 
-### Name
+### 名称
 
 ALTER SYSTEM ADD BACKEND
 
-### Description
+### 描述
 
-该语句用于操作一个系统内的节点。(仅管理员使用!)
+ADD BACKEND 命令用于向 Doris OLAP 
数据库集群添加一个或多个后端节点。此命令允许管理员指定新后端节点的主机和端口,以及可选的属性来配置它们的行为。
 
 语法:
 
-```sql
-1) 增加节点
-   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...];
 ```
+   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...] 
[PROPERTIES ("key"="value", ...)];
+````
 
- 说明:
+### 参数
 
-1. host 可以是主机名或者ip地址
-2. heartbeat_port 为该节点的心跳端口
-3. 增加和删除节点为同步操作。这两种操作不考虑节点上已有的数据,节点直接从元数据中删除,请谨慎使用。
+* `host` 可以是后端节点的主机名或 IP 地址,而 `heartbeat_port` 是节点的心跳端口
+* `PROPERTIES ("key"="value", 
...)`:(可选)一组键值对,用于定义后端节点的附加属性。这些属性可用于自定义正在添加的后端的配置。可用属性包括:
 
-### Example
+    * tag.location:指定后端节点所属的资源组。例如,PROPERTIES ("tag.location" = "groupb")。
+    * tag.compute_group_name:指定后端节点所属的计算组。例如,PROPERTIES 
("tag.compute_group_name" = "groupb")。
 
- 1. 增加一个节点
-    
-     ```sql
-    ALTER SYSTEM ADD BACKEND "host:port";
+### 示例
+
+1. 不带附加属性添加后端
+
+    ```sql
+    ALTER SYSTEM ADD BACKEND "host1:9020,host2:9020";
+    ```
+
+    此命令向集群添加两个后端节点:
+
+    * host1,端口 9020

Review Comment:
   9020默认是FE 上的 thrift server端口,这里应该改成9050比较好



##########
docs/sql-manual/sql-statements/Show-Statements/SHOW-CACHE-HOTSPOT.md:
##########
@@ -0,0 +1,61 @@
+---
+{
+    "title": "SHOW-CACHE-HOTSPOT",
+    "language": "en"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## Description
+
+This statement is used to display the hotspot information of file cache.
+
+## Syntax
+
+```sql
+   SHOW CACHE HOTSPOT '/[compute_group_name/table_name]';
+```
+
+## Parameters
+
+1. compute_group_name : Name of compute group.
+2. table_name : Name of table.
+
+## Example
+
+1. View the table creation statement of a table
+
+    ```sql
+    SHOW CACHE HOTSPOT '/';
+    ```
+
+## Related Commands
+
+ - [WARMUP CACHE]

Review Comment:
   It will be a hyperlink?



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/compilation-and-deployment.md:
##########
@@ -71,73 +84,189 @@ cat /etc/foundationdb/fdb.cluster
 cloud_ssb:[email protected]:4500
 ```
 
-### 启停
+### 3.2 启动与停止
 
-Meta Service 依赖 JAVA 运行环境,并使用 OpenJDK 17。在启动前这两个服务前,请确保已正确设置 `export 
JAVA_HOME` 环境变量。
+*环境要求*
 
-`doris_cloud` 部署的 `bin` 目录下提供了启停脚本,调用对应的启停脚本即可完成启停。
+确保已正确设置 `JAVA_HOME` 环境变量,指向 OpenJDK 17,进入 `ms` 目录。
 
-在 `ms` 目录中:
+*启动命令*
 
 ```Shell
 export JAVA_HOME=${path_to_jdk_17}

Review Comment:
   现在已经支持在doris_cloud.conf里面配置JAVA_HOME



##########
docs/sql-manual/sql-statements/Database-Administration-Statements/WARM-UP-COMPUTE-GROUP.md:
##########
@@ -0,0 +1,81 @@
+---
+{
+    "title": "WARM UP COMPUTE GROUP",
+    "language": "en"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## Description
+
+The WARM UP COMPUTE GROUP statement is used to warm up data in a compute group 
to improve query performance. The warming operation can either retrieve 
resources from another compute group or specify particular tables and 
partitions for warming. The warming operation returns a job ID that can be used 
to track the status of the warming job.
+
+## Syntax
+
+```sql
+WARM UP COMPUTE GROUP <destination_compute_group_name> WITH COMPUTE GROUP 
<source_compute_group_name>;
+
+WARM UP COMPUTE GROUP <destination_compute_group_name> WITH <warm_up_list>;
+
+warm_up_list ::= warm_up_item [AND warm_up_item...];
+
+warm_up_item ::= TABLE <table_name> [PARTITION <partition_name>];
+
+```
+
+## Parameters
+
+* destination_compute_group_name: The name of the destination compute group 
that is to be warmed up.
+
+* source_compute_group_name(Optional) The name of the source cluster from 
which resources will be warmed up.
+
+* warm_up_list: (Optional) A list of specific items to warm up, which can 
include tables and partitions.
+
+* table_name: The name of the table is used to warmup.
+
+* partition_name: The name of the partition is used to warmup.
+
+## Return Values
+
+* JobId: the id of warm-up job.
+
+## Example
+
+1. Warm up a compute group named destination_group_name with a compute group 
named source_group_name.
+
+```sql
+   WARM UP COMPUTE GROUP destination_group_name WITH COMPUTE GROUP 
source_group_name.

Review Comment:
   It needs end with `;`



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/before-deployment.md:
##########
@@ -24,420 +24,118 @@ specific language governing permissions and limitations
 under the License.
 -->
 
-Doris 存算分离架构部署方式示意图如下,共需要 3 个模块参与工作:
+# Doris 存算分离模式部署准备
 
-- **FE**:负责接收用户请求,负责存储库表的元数据,目前是有状态的,未来会和 BE 类似,演化为无状态。
-- **BE**:无状态化的 Doris BE 节点,负责具体的计算任务。BE 上会缓存一部分 Tablet 元数据和数据以提高查询性能。
-- **MS**:存算分离模式新增模块,Meta Service,它主要有两个功能:元数据操作,数据回收。
-  - **元数据操作**:元数据管理,提供元数据操作的服务,例如创建 Tablet,新增 Rowset,Tablet 查询以及 Rowset 
元数据查询等功能。
-  - **数据回收**:通过定期对记录已标记删除的数据的元数据进行扫描,实现对数据的定期异步正向回收(文件实际存储在 S3 或 HDFS 
上),而无须列举数据对象进行元数据对比。
+## 1. 概述
 
-![apache-doris-in-compute-storage-decoupled-mode](/images/apache-doris-in-compute-storage-decoupled-mode.png)
+本文档介绍了 Apache Doris 存算分离模式的部署准备工作。存算分离架构旨在提高系统的可扩展性和性能,适用于大规模数据处理场景。
 
-Meta Service 是一种无状态化的服务,依赖了一个高性能分布式事务 KV(即 
[FoundationDB](https://github.com/apple/foundationdb))来存储元数据,大幅简化了元数据管理流程,同时提供强大的横向的扩展能力。
+## 2. 架构组件
 
-![deployment-of-compute-storage-decoupled-mode](/images/deployment-of-compute-storage-decoupled-mode.png)
+Doris 存算分离架构包含三个主要模块:
 
-Doris 存算分离架构依赖于两个外部开源项目,为确保部署顺利,请在开始前预先安装以下依赖:
+1. **Frontend (FE)**:处理用户请求和管理元数据。
+2. **Backend (BE)**:无状态计算节点,执行查询任务。
+3. **Meta Service (MS)**:管理元数据操作和数据回收。
 
-- **FoundationDB (FDB)**
-- **OpenJDK17**: 需要安装到所有部署 Meta Service 的节点上。
+## 3. 系统要求
 
+### 3.1 硬件要求
 
-## 部署步骤
+- 最小配置:3 台服务器
+- 推荐配置:5 台或更多服务器
 
-Doris 存算分离模式部署按照模块与分工"自下而上"部署:
-1. 存算分离模式机器规划,这一步骤在[本文档](./before-deployment.md)介绍。
-2. 部署 FoundationDB 以及运行环境等基础的依赖,这一步骤不需要 Doris 
的编译产出即可完成,在[本文档](./before-deployment.md)介绍。
-3. [部署 Meta Service](./compilation-and-deployment.md)
-4. [部署 FE 以及 BE](./creating-cluster.md)
+### 3.2 软件依赖
 
-:::info 备注
-注意:一套 FoundationDB + Meta Service 基础环境可以支撑多个存算分离模式的 Doris 实例(即多套 FE + BE )。
-:::
-
-## 部署规划
-一般来说 Doris 存算分离模式适用于比较大型的集群(多台机器),机器越多,越能发挥存算分离模式的优势。
-Doris存算分离模式推荐的方式是按照模块划分,尽量避免模块间相互影响。推荐的部署方式以及规划:
-* Meta Service 以及 FDB 使用同一批机器(前者消耗CPU,后者消耗IO)。要求大于等于3台。
-       * 存算分离模式要正常运行至少要部署一个 Meta Service 
进程。这两种进程是无状态的,可以按需增加部署数量,一般每种进程部署3个能够满足需求。
-       * 为了保证 FDB 的性能,可靠性以及扩展性,FDB 需要使用多副本部署的方式。
-* FE单独部署,至少1台,可以按需实际查询需要多部署一些
-* BE单独部署,至少1台,可以按需实际查询需要多部署一些
-
-**我们也可以根据不同的部署需求进行不同的部署规划:**
-1. 测试体验部署:体验存算分离的功能,多个模块混部在一台机器,不能用于生产环境。
-2. 小规模生产部署:最少 3 台机器部署,保证数据的可靠以及后续往规模的扩展性。部分模块混部。
-3. 大规模生产部署:最少 5 台机器部署,保证数据的可靠以及后续往规模的扩展性。最大限度保证模块的隔离。
-
-接下来我们给出上述每个具体的部署示例。
-
-### 测试体验部署
-
-所有模块都混部在一个机器上。FDB 使用单机部署方案,具体参考本文档”安装 FoundationDB“章节,完成单机部署 FDB 部分即可。
-**注意:此方案一定不能用于生产环境。**
-
-```
-                                  host1
-                          .------------------.
-                          |        FE        |
-                          |        BE        |
-                          |   Meta Service   |
-                          |       FDB        |
-                          '------------------'
-```
+- FoundationDB (FDB) 7.1.38 或更高版本
+- OpenJDK 17
 
-### 小规模生产部署
+## 4. 部署规划
 
-如果机器数量有限,可以使用全混部的方式,但是最少也要求使用3台机器用于 FDB 的部署,
-然后所有模块部署在同一批机器,如下是一种可行的规划:
-1. 3 台机器部署一个最小规模的 FDB 高可靠高可用集群
-2. 其中 1 台再混部上 FE + BE + Meta Service
-3. 另外 2 台再混部上 BE
+### 4.1 测试环境部署
 
-**注意:这个部署方案,BE 如果有大查询可能会影响到 FDB 的工作, CPU 内存 IO 资源。
-这个部署保证了数据的可靠性和扩展性,我们后续可以根据需求增加机器逐渐横向扩展成大规模的部署**
+单机部署所有模块,不适用于生产环境。
 
-```
-              host1                  host2                  host3
-      .------------------.   .------------------.   .------------------.
-      |        FE        |   |        BE        |   |        BE        |
-      |                  |   |                  |   |                  |
-      |   Meta Service   |   |                  |   |                  |
-      |       FDB        |   |       FDB        |   |       FDB        |
-      '------------------'   '------------------'   '------------------'
-```
+### 4.2 生产部署
 
-### 大规模生产部署
+- 3 台或更多机器部署 FDB
+- 3 台或更多机器部署 FE 和 Meta Service
+- 3 台或更多机器部署 BE
 
-下图展示了一种比较大规模的部署方案,这个部署方式可以由小规模部署方案逐渐横向扩展形成。
-1. FE 使用 2 台独立机器部署(按需增加机器,可以使用多于 2 台机器,但是一般 2 台足够),保证请求的高可用(互备)。
-2. BE 使用 3 台独立机器部署(按需增加机器,可以使用多于 3 台机器),面对大查询 BE 产生的IO 以及 CPU 影响不会影响到其他模块。
-3. Meta Service 以及 FDB 混部在 3 台独立机器(可以使用多于 3 台机器,一般来说 3 台已经足够服务几十台以上的 
FE+BE),充分利用这些机器的 CPU 内存 以及 IO 资源。
+机器配置高时,可以考虑 FDB、FE 和 Meta Service 混布,但是磁盘不要混用。
 
-```
-                      host1,2                  host3,4,5
-              .------------------.       .------------------.
-              | .------------------.     | .------------------.
-              | |                  |     | | .------------------.
-              | |        FE        |     | | |                  |
-              '-|                  |     '-| |        BE        |
-                '------------------'       '-|                  |
-                                             '------------------'
-
-               host6                 host7                 host8
-       .------------------.  .------------------.  .------------------.
-       |   Meta Service   |  |   Meta Service   |  |   Meta Service   |
-       |       FDB        |  |       FDB        |  |       FDB        |
-       '------------------'  '------------------'  '------------------'
-```
+## 5. 安装步骤
 
-注意:大规模生产如果对于 Meta Service 的在线(元数据操作)和离线(数据回收)功能有隔离性的需求可以参考
-[部署 Meta Service](./compilation-and-deployment.md) 的”将数据回收功能作为单独进程部署“ 章节。
+### 5.1. 安装 FoundationDB
 
-## 安装 FoundationDB
+本节提供了使用提供的脚本 `fdb_vars.sh` 和 `fdb_ctl.sh` 配置、部署和启动 FDB(FoundationDB)服务的分步指南。
 
-### 机器要求
+#### 5.1 机器要求
 
-通常情况下,需要至少 3 台机器组成一个双副本、允许单机故障的 FoundationDB 集群。
+通常,至少需要 3 台配备 SSD 的机器来形成具有双数据副本并允许单机故障的 FoundationDB 集群。
 
 :::tip
-
-如果仅出于开发/测试需要,使用一台机器即可。
-
-:::
-
-每台机器都需先安装 FoundationDB 
服务。可通过[以下地址](https://github.com/apple/foundationdb/releases)选择一个版本下载 
FoundationDB 安装包,目前通常推荐使用 
[7.1.38](https://github.com/apple/foundationdb/releases/tag/7.1.38) 版本。
-
-对于 CentOS (Red Hat) 和 Ubuntu 
用户,以下是[下载链接](https://github.com/apple/foundationdb/releases/tag/7.1.38):
-
-- 
[clients-x86_64.rpm](https://github.com/apple/foundationdb/releases/download/7.1.38/foundationdb-clients-7.1.38-1.el7.x86_64.rpm)
-- 
[server-x86_64.rpm](https://github.com/apple/foundationdb/releases/download/7.1.38/foundationdb-server-7.1.38-1.el7.x86_64.rpm)
-- 
[clients-amd64.deb](https://github.com/apple/foundationdb/releases/download/7.1.38/foundationdb-clients_7.1.38-1_amd64.deb)
-- 
[server-amd64.deb](https://github.com/apple/foundationdb/releases/download/7.1.38/foundationdb-server_7.1.38-1_amd64.deb)
-
-如果需要更高速的下载,也可使用如下镜像链接:
-
-- 
[clients-x86_64.rpm](https://selectdb-doris-1308700295.cos.ap-beijing.myqcloud.com/toolkit/fdb/foundationdb-clients-7.1.38-1.el7.x86_64.rpm)
-- 
[server-x86_64.rpm](https://selectdb-doris-1308700295.cos.ap-beijing.myqcloud.com/toolkit/fdb/foundationdb-server-7.1.38-1.el7.x86_64.rpm)
-- 
[clients-amd64.deb](https://selectdb-doris-1308700295.cos.ap-beijing.myqcloud.com/toolkit/fdb/foundationdb-clients_7.1.38-1_amd64.deb)
-- 
[server-amd64.deb](https://selectdb-doris-1308700295.cos.ap-beijing.myqcloud.com/toolkit/fdb/foundationdb-server_7.1.38-1_amd64.deb)
-
-可以使用如下命令安装 FoundationDB 程序:
-
-```Shell
-// Ubuntu 系统 user@host
-$ sudo dpkg -i foundationdb-clients_7.1.23-1_amd64.deb \ 
foundationdb-server_7.1.23-1_amd64.deb
-
-// CentOS 系统 
-user@host$ sudo rpm -Uvh foundationdb-clients-7.1.23-1.el7.x86_64.rpm \ 
foundationdb-server-7.1.23-1.el7.x86_64.rpm
-```
-
-安装完毕后,在命令行输入 `fdbcli` 查看是否安装成功。若返回结果显示如下 `available` 字样,则表示安装成功:
-
-```Plain
-user@host$ fdbcli
-Using cluster file `/etc/foundationdb/fdb.cluster'.
-
-The database is available.
-
-Welcome to the fdbcli. For help, type `help'.
-```
-
-:::info 备注
-
-安装成功后:
-
-- 默认将启动一个 FoundationDB 服务。
-- 默认集群信息文件 `fdb.cluster`将存放在`/etc/foundationdb/fdb.cluster`,默认集群配置文件 
`foundationdb.conf` 将存放在`/etc/foundationdb/foundationdb.conf`。
-- 默认将数据和日志分别保存在`/var/lib/foundationdb/data/`和`/var/log/foundationdb`。
-- 默认将新建一个 FoundationDB 的 `user` 和 `group`,数据和日志的路径默认已具备 FoundationDB 的访问权限。
-
+如果仅用于开发/测试目的,单台机器就足够了。
 :::
 
-### 主机配置
-
-从三台机器中选择一台作为主机。首先完成主机的配置,再配置其他机器。
-
-### 更改 FoundationDB 配置
-
-根据不同机型调整 FoundationDB 配置, 具体配置请参考 [FoundationDB 
系统要求](https://apple.github.io/foundationdb/configuration.html#system-requirements)。
-
-以下是一个基于 8 核 CPU、32GB 内存和一块 500GB SSD 数据盘的机器的`foundationdb.conf`示例(请确保正确设置 
`data` 和 `log` 的存放路径;目前,数据盘一般挂载在 `mnt` 上):
-
-```shell
-# foundationdb.conf
-##
-## Configuration file for FoundationDB server processes
-## Full documentation is available at
-## 
https://apple.github.io/foundationdb/configuration.html#the-configuration-file
-
-[fdbmonitor]
-user = foundationdb
-group = foundationdb
-
-[general]
-restart-delay = 60
-## By default, restart-backoff = restart-delay-reset-interval = restart-delay
-# initial-restart-delay = 0
-# restart-backoff = 60
-# restart-delay-reset-interval = 60
-cluster-file = /etc/foundationdb/fdb.cluster
-# delete-envvars =
-# kill-on-configuration-change = true
-
-## Default parameters for individual fdbserver processes
-[fdbserver]
-command = /usr/sbin/fdbserver
-public-address = auto:$ID
-listen-address = public
-logdir = /mnt/foundationdb/log
-datadir = /mnt/foundationdb/data/$ID
-# logsize = 10MiB
-# maxlogssize = 100MiB
-# machine-id =
-# datacenter-id =
-# class =
-# memory = 8GiB
-# storage-memory = 1GiB
-# cache-memory = 2GiB
-# metrics-cluster =
-# metrics-prefix =
-
-## An individual fdbserver process with id 4500
-## Parameters set here override defaults from the [fdbserver] section
-[fdbserver.4500]
-class = stateless
-[fdbserver.4501]
-class = stateless
-
-[fdbserver.4502]
-class = storage
-
-[fdbserver.4503]
-class = storage
-
-[fdbserver.4504]
-class = log
-
-[backup_agent]
-command = /usr/lib/foundationdb/backup_agent/backup_agent
-logdir = /mnt/foundationdb/log
-
-[backup_agent.1]
-```
-
-首先,按照已配置的 `datadir` 和 `logdir` 路径在主机上创建相应的目录,并使其具有 `foundationdb` 的访问权限:
+#### 5.2 `fdb_vars.sh` 配置
 
-```Shell
-chown -R foundationdb:foundationdb /mnt/foundationdb/data/ 
/mnt/foundationdb/log
-```
-
-然后将 `/etc/foundationdb/foundationdb.conf` 的内容替换为上述相应配置。
-
-### 配置访问权限
-
-先设置 `/etc/foundationdb` 目录的访问权限:
-
-```Shell
-chmod -R 777 /etc/foundationdb
-```
-
-在主机中修改 `/etc/foundationdb/fdb.cluster` 中的 `ip` 地址,默认是本机地址,修改为内网地址,如:
-
-```Shell
-3OrXp9ei:[email protected]:4500 -> 3OrXp9ei:[email protected]:4500
-```
-
-然后重启 FoundationDB 服务:
-
-```shell
-# for service
-user@host$ sudo service foundationdb restart
-
-# for systemd
-user@host$ sudo systemctl restart foundationdb.service
-```
-
-### 配置新数据库
-
-主机由于更改了 `data` 和 `log` 的存放路径,需新建 `database`。可在 `fdbcli` 中新建一个 以`ssd` 为存储引擎的 
`database`。
-
-```Shell
-user@host$ fdbcli
-fdb> configure new single ssd
-Database created
-```
-
-最后通过 `fdbcli` 检测是否启动正常。
+##### 必需的自定义设置
 
-```Shell
-user@host$ fdbcli
-Using cluster file `/etc/foundationdb/fdb.cluster'.
+| 参数 | 描述 | 类型 | 示例 | 注意事项 |
+|------|------|------|------|----------|
+| `DATA_DIRS` | 指定 FoundationDB 存储的数据目录 | 以逗号分隔的绝对路径列表 | 
`/mnt/foundationdb/data1,/mnt/foundationdb/data2,/mnt/foundationdb/data3` | - 
运行脚本前确保目录已创建<br>- 生产环境建议使用 SSD 和独立目录 |
+| `FDB_CLUSTER_IPS` | 定义集群 IP | 字符串(以逗号分隔的 IP 地址) | 
`172.200.0.2,172.200.0.3,172.200.0.4` | - 生产集群至少应有 3 个 IP 地址<br>- 第一个 IP 
地址将用作协调器<br>- 为高可用性,将机器放置在不同机架上 |
+| `FDB_HOME` | 定义 FoundationDB 主目录 | 绝对路径 | `/fdbhome` | - 默认路径为 /fdbhome<br>- 
确保此路径是绝对路径 |
+| `FDB_CLUSTER_ID` | 定义集群 ID | 字符串 | `SAQESzbh` | - 每个集群的 ID 必须唯一<br>- 可使用 
`mktemp -u XXXXXXXX` 生成 |
+| `FDB_CLUSTER_DESC` | 定义 FDB 集群的描述 | 字符串 | `doris-fdb` | - 建议更改为对部署有意义的内容 |
 
-The database is available.
+##### 可选的自定义设置
 
-Welcome to the fdbcli. For help, type `help'.
-```
-
-至此,主机的配置完成。
-
-### 构建 FoundationDB 集群
-
-:::tip
-
-如果仅部署一台机器进行开发/测试,可以跳过此步骤。
-
-:::
-
-对于主机以外的机器,每台机器先按照主机配置步骤,创建 `data` 和 `log` 目录。
+| 参数 | 描述 | 类型 | 示例 | 注意事项 |
+|------|------|------|------|----------|
+| `MEMORY_LIMIT_GB` | 定义 FDB 进程的内存限制,单位为 GB | 整数 | `MEMORY_LIMIT_GB=16` | 
根据可用内存资源和 FDB 进程的要求调整此值 |
+| `CPU_CORES_LIMIT` | 定义 FDB 进程的 CPU 核心限制 | 整数 | `CPU_CORES_LIMIT=8` | 根据可用的 
CPU 核心数量和 FDB 进程的要求设置此值 |
 
-然后,设置 `/etc/foundationdb` 目录的访问权限:
+#### 5.3 部署 FDB 集群
 
-```Shell
-chmod -R 777 /etc/foundationdb
-```
-
-将主机的 `/etc/foundationdb/foundationdb.conf `和`/etc/foundationdb/fdb.cluster` 
替换为本机的 `/etc/foundationdb/foundationdb.conf `和`/etc/foundationdb/fdb.cluster`。
-
-随后在本机重启 FoundationDB 服务。
+使用 `fdb_vars.sh` 配置环境后,您可以在每个节点上使用 `fdb_ctl.sh` 脚本部署 FDB 集群。
 
-```shell
-# for service
-user@host$ sudo service foundationdb restart
-
-# for systemd
-user@host$ sudo systemctl restart foundationdb.service
+```bash
+./fdb_ctl.sh deploy
 ```
 
-待所有机器操作完毕后,所有机器都已连接在同一集群上(即同一 `fdb.cluster`)。此时登录主机,配置双副本模式:
+此命令启动 FDB 集群的部署过程。
 
-```Shell
-user@host$ fdbcli
-Using cluster file `/etc/foundationdb/fdb.cluster'.
+### 5.4 启动 FDB 服务

Review Comment:
   有必要再给个 ./fdb_ctl.sh clean 和 fdb_ctl.sh stop 的例子吗?



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/before-deployment.md:
##########
@@ -24,420 +24,118 @@ specific language governing permissions and limitations
 under the License.
 -->
 
-Doris 存算分离架构部署方式示意图如下,共需要 3 个模块参与工作:
+# Doris 存算分离模式部署准备
 
-- **FE**:负责接收用户请求,负责存储库表的元数据,目前是有状态的,未来会和 BE 类似,演化为无状态。
-- **BE**:无状态化的 Doris BE 节点,负责具体的计算任务。BE 上会缓存一部分 Tablet 元数据和数据以提高查询性能。
-- **MS**:存算分离模式新增模块,Meta Service,它主要有两个功能:元数据操作,数据回收。
-  - **元数据操作**:元数据管理,提供元数据操作的服务,例如创建 Tablet,新增 Rowset,Tablet 查询以及 Rowset 
元数据查询等功能。
-  - **数据回收**:通过定期对记录已标记删除的数据的元数据进行扫描,实现对数据的定期异步正向回收(文件实际存储在 S3 或 HDFS 
上),而无须列举数据对象进行元数据对比。
+## 1. 概述
 
-![apache-doris-in-compute-storage-decoupled-mode](/images/apache-doris-in-compute-storage-decoupled-mode.png)
+本文档介绍了 Apache Doris 存算分离模式的部署准备工作。存算分离架构旨在提高系统的可扩展性和性能,适用于大规模数据处理场景。
 
-Meta Service 是一种无状态化的服务,依赖了一个高性能分布式事务 KV(即 
[FoundationDB](https://github.com/apple/foundationdb))来存储元数据,大幅简化了元数据管理流程,同时提供强大的横向的扩展能力。
+## 2. 架构组件
 
-![deployment-of-compute-storage-decoupled-mode](/images/deployment-of-compute-storage-decoupled-mode.png)
+Doris 存算分离架构包含三个主要模块:
 
-Doris 存算分离架构依赖于两个外部开源项目,为确保部署顺利,请在开始前预先安装以下依赖:
+1. **Frontend (FE)**:处理用户请求和管理元数据。
+2. **Backend (BE)**:无状态计算节点,执行查询任务。
+3. **Meta Service (MS)**:管理元数据操作和数据回收。
 
-- **FoundationDB (FDB)**
-- **OpenJDK17**: 需要安装到所有部署 Meta Service 的节点上。
+## 3. 系统要求
 
+### 3.1 硬件要求
 
-## 部署步骤
+- 最小配置:3 台服务器
+- 推荐配置:5 台或更多服务器
 
-Doris 存算分离模式部署按照模块与分工"自下而上"部署:
-1. 存算分离模式机器规划,这一步骤在[本文档](./before-deployment.md)介绍。
-2. 部署 FoundationDB 以及运行环境等基础的依赖,这一步骤不需要 Doris 
的编译产出即可完成,在[本文档](./before-deployment.md)介绍。
-3. [部署 Meta Service](./compilation-and-deployment.md)
-4. [部署 FE 以及 BE](./creating-cluster.md)
+### 3.2 软件依赖
 
-:::info 备注
-注意:一套 FoundationDB + Meta Service 基础环境可以支撑多个存算分离模式的 Doris 实例(即多套 FE + BE )。
-:::
-
-## 部署规划
-一般来说 Doris 存算分离模式适用于比较大型的集群(多台机器),机器越多,越能发挥存算分离模式的优势。
-Doris存算分离模式推荐的方式是按照模块划分,尽量避免模块间相互影响。推荐的部署方式以及规划:
-* Meta Service 以及 FDB 使用同一批机器(前者消耗CPU,后者消耗IO)。要求大于等于3台。
-       * 存算分离模式要正常运行至少要部署一个 Meta Service 
进程。这两种进程是无状态的,可以按需增加部署数量,一般每种进程部署3个能够满足需求。
-       * 为了保证 FDB 的性能,可靠性以及扩展性,FDB 需要使用多副本部署的方式。
-* FE单独部署,至少1台,可以按需实际查询需要多部署一些
-* BE单独部署,至少1台,可以按需实际查询需要多部署一些
-
-**我们也可以根据不同的部署需求进行不同的部署规划:**
-1. 测试体验部署:体验存算分离的功能,多个模块混部在一台机器,不能用于生产环境。
-2. 小规模生产部署:最少 3 台机器部署,保证数据的可靠以及后续往规模的扩展性。部分模块混部。
-3. 大规模生产部署:最少 5 台机器部署,保证数据的可靠以及后续往规模的扩展性。最大限度保证模块的隔离。
-
-接下来我们给出上述每个具体的部署示例。
-
-### 测试体验部署
-
-所有模块都混部在一个机器上。FDB 使用单机部署方案,具体参考本文档”安装 FoundationDB“章节,完成单机部署 FDB 部分即可。
-**注意:此方案一定不能用于生产环境。**
-
-```
-                                  host1
-                          .------------------.
-                          |        FE        |
-                          |        BE        |
-                          |   Meta Service   |
-                          |       FDB        |
-                          '------------------'
-```
+- FoundationDB (FDB) 7.1.38 或更高版本
+- OpenJDK 17
 
-### 小规模生产部署
+## 4. 部署规划
 
-如果机器数量有限,可以使用全混部的方式,但是最少也要求使用3台机器用于 FDB 的部署,
-然后所有模块部署在同一批机器,如下是一种可行的规划:
-1. 3 台机器部署一个最小规模的 FDB 高可靠高可用集群
-2. 其中 1 台再混部上 FE + BE + Meta Service
-3. 另外 2 台再混部上 BE
+### 4.1 测试环境部署
 
-**注意:这个部署方案,BE 如果有大查询可能会影响到 FDB 的工作, CPU 内存 IO 资源。
-这个部署保证了数据的可靠性和扩展性,我们后续可以根据需求增加机器逐渐横向扩展成大规模的部署**
+单机部署所有模块,不适用于生产环境。
 
-```
-              host1                  host2                  host3
-      .------------------.   .------------------.   .------------------.
-      |        FE        |   |        BE        |   |        BE        |
-      |                  |   |                  |   |                  |
-      |   Meta Service   |   |                  |   |                  |
-      |       FDB        |   |       FDB        |   |       FDB        |
-      '------------------'   '------------------'   '------------------'
-```
+### 4.2 生产部署
 
-### 大规模生产部署
+- 3 台或更多机器部署 FDB
+- 3 台或更多机器部署 FE 和 Meta Service
+- 3 台或更多机器部署 BE
 
-下图展示了一种比较大规模的部署方案,这个部署方式可以由小规模部署方案逐渐横向扩展形成。
-1. FE 使用 2 台独立机器部署(按需增加机器,可以使用多于 2 台机器,但是一般 2 台足够),保证请求的高可用(互备)。
-2. BE 使用 3 台独立机器部署(按需增加机器,可以使用多于 3 台机器),面对大查询 BE 产生的IO 以及 CPU 影响不会影响到其他模块。
-3. Meta Service 以及 FDB 混部在 3 台独立机器(可以使用多于 3 台机器,一般来说 3 台已经足够服务几十台以上的 
FE+BE),充分利用这些机器的 CPU 内存 以及 IO 资源。
+机器配置高时,可以考虑 FDB、FE 和 Meta Service 混布,但是磁盘不要混用。
 
-```
-                      host1,2                  host3,4,5
-              .------------------.       .------------------.
-              | .------------------.     | .------------------.
-              | |                  |     | | .------------------.
-              | |        FE        |     | | |                  |
-              '-|                  |     '-| |        BE        |
-                '------------------'       '-|                  |
-                                             '------------------'
-
-               host6                 host7                 host8
-       .------------------.  .------------------.  .------------------.
-       |   Meta Service   |  |   Meta Service   |  |   Meta Service   |
-       |       FDB        |  |       FDB        |  |       FDB        |
-       '------------------'  '------------------'  '------------------'
-```
+## 5. 安装步骤
 
-注意:大规模生产如果对于 Meta Service 的在线(元数据操作)和离线(数据回收)功能有隔离性的需求可以参考
-[部署 Meta Service](./compilation-and-deployment.md) 的”将数据回收功能作为单独进程部署“ 章节。
+### 5.1. 安装 FoundationDB
 
-## 安装 FoundationDB
+本节提供了使用提供的脚本 `fdb_vars.sh` 和 `fdb_ctl.sh` 配置、部署和启动 FDB(FoundationDB)服务的分步指南。
 
-### 机器要求
+#### 5.1 机器要求
 
-通常情况下,需要至少 3 台机器组成一个双副本、允许单机故障的 FoundationDB 集群。
+通常,至少需要 3 台配备 SSD 的机器来形成具有双数据副本并允许单机故障的 FoundationDB 集群。
 
 :::tip
-
-如果仅出于开发/测试需要,使用一台机器即可。
-
-:::
-
-每台机器都需先安装 FoundationDB 
服务。可通过[以下地址](https://github.com/apple/foundationdb/releases)选择一个版本下载 
FoundationDB 安装包,目前通常推荐使用 
[7.1.38](https://github.com/apple/foundationdb/releases/tag/7.1.38) 版本。
-
-对于 CentOS (Red Hat) 和 Ubuntu 
用户,以下是[下载链接](https://github.com/apple/foundationdb/releases/tag/7.1.38):
-
-- 
[clients-x86_64.rpm](https://github.com/apple/foundationdb/releases/download/7.1.38/foundationdb-clients-7.1.38-1.el7.x86_64.rpm)
-- 
[server-x86_64.rpm](https://github.com/apple/foundationdb/releases/download/7.1.38/foundationdb-server-7.1.38-1.el7.x86_64.rpm)
-- 
[clients-amd64.deb](https://github.com/apple/foundationdb/releases/download/7.1.38/foundationdb-clients_7.1.38-1_amd64.deb)
-- 
[server-amd64.deb](https://github.com/apple/foundationdb/releases/download/7.1.38/foundationdb-server_7.1.38-1_amd64.deb)
-
-如果需要更高速的下载,也可使用如下镜像链接:
-
-- 
[clients-x86_64.rpm](https://selectdb-doris-1308700295.cos.ap-beijing.myqcloud.com/toolkit/fdb/foundationdb-clients-7.1.38-1.el7.x86_64.rpm)
-- 
[server-x86_64.rpm](https://selectdb-doris-1308700295.cos.ap-beijing.myqcloud.com/toolkit/fdb/foundationdb-server-7.1.38-1.el7.x86_64.rpm)
-- 
[clients-amd64.deb](https://selectdb-doris-1308700295.cos.ap-beijing.myqcloud.com/toolkit/fdb/foundationdb-clients_7.1.38-1_amd64.deb)
-- 
[server-amd64.deb](https://selectdb-doris-1308700295.cos.ap-beijing.myqcloud.com/toolkit/fdb/foundationdb-server_7.1.38-1_amd64.deb)
-
-可以使用如下命令安装 FoundationDB 程序:
-
-```Shell
-// Ubuntu 系统 user@host
-$ sudo dpkg -i foundationdb-clients_7.1.23-1_amd64.deb \ 
foundationdb-server_7.1.23-1_amd64.deb
-
-// CentOS 系统 
-user@host$ sudo rpm -Uvh foundationdb-clients-7.1.23-1.el7.x86_64.rpm \ 
foundationdb-server-7.1.23-1.el7.x86_64.rpm
-```
-
-安装完毕后,在命令行输入 `fdbcli` 查看是否安装成功。若返回结果显示如下 `available` 字样,则表示安装成功:
-
-```Plain
-user@host$ fdbcli
-Using cluster file `/etc/foundationdb/fdb.cluster'.
-
-The database is available.
-
-Welcome to the fdbcli. For help, type `help'.
-```
-
-:::info 备注
-
-安装成功后:
-
-- 默认将启动一个 FoundationDB 服务。
-- 默认集群信息文件 `fdb.cluster`将存放在`/etc/foundationdb/fdb.cluster`,默认集群配置文件 
`foundationdb.conf` 将存放在`/etc/foundationdb/foundationdb.conf`。
-- 默认将数据和日志分别保存在`/var/lib/foundationdb/data/`和`/var/log/foundationdb`。
-- 默认将新建一个 FoundationDB 的 `user` 和 `group`,数据和日志的路径默认已具备 FoundationDB 的访问权限。
-
+如果仅用于开发/测试目的,单台机器就足够了。
 :::
 
-### 主机配置
-
-从三台机器中选择一台作为主机。首先完成主机的配置,再配置其他机器。
-
-### 更改 FoundationDB 配置
-
-根据不同机型调整 FoundationDB 配置, 具体配置请参考 [FoundationDB 
系统要求](https://apple.github.io/foundationdb/configuration.html#system-requirements)。
-
-以下是一个基于 8 核 CPU、32GB 内存和一块 500GB SSD 数据盘的机器的`foundationdb.conf`示例(请确保正确设置 
`data` 和 `log` 的存放路径;目前,数据盘一般挂载在 `mnt` 上):
-
-```shell
-# foundationdb.conf
-##
-## Configuration file for FoundationDB server processes
-## Full documentation is available at
-## 
https://apple.github.io/foundationdb/configuration.html#the-configuration-file
-
-[fdbmonitor]
-user = foundationdb
-group = foundationdb
-
-[general]
-restart-delay = 60
-## By default, restart-backoff = restart-delay-reset-interval = restart-delay
-# initial-restart-delay = 0
-# restart-backoff = 60
-# restart-delay-reset-interval = 60
-cluster-file = /etc/foundationdb/fdb.cluster
-# delete-envvars =
-# kill-on-configuration-change = true
-
-## Default parameters for individual fdbserver processes
-[fdbserver]
-command = /usr/sbin/fdbserver
-public-address = auto:$ID
-listen-address = public
-logdir = /mnt/foundationdb/log
-datadir = /mnt/foundationdb/data/$ID
-# logsize = 10MiB
-# maxlogssize = 100MiB
-# machine-id =
-# datacenter-id =
-# class =
-# memory = 8GiB
-# storage-memory = 1GiB
-# cache-memory = 2GiB
-# metrics-cluster =
-# metrics-prefix =
-
-## An individual fdbserver process with id 4500
-## Parameters set here override defaults from the [fdbserver] section
-[fdbserver.4500]
-class = stateless
-[fdbserver.4501]
-class = stateless
-
-[fdbserver.4502]
-class = storage
-
-[fdbserver.4503]
-class = storage
-
-[fdbserver.4504]
-class = log
-
-[backup_agent]
-command = /usr/lib/foundationdb/backup_agent/backup_agent
-logdir = /mnt/foundationdb/log
-
-[backup_agent.1]
-```
-
-首先,按照已配置的 `datadir` 和 `logdir` 路径在主机上创建相应的目录,并使其具有 `foundationdb` 的访问权限:
+#### 5.2 `fdb_vars.sh` 配置
 
-```Shell
-chown -R foundationdb:foundationdb /mnt/foundationdb/data/ 
/mnt/foundationdb/log
-```
-
-然后将 `/etc/foundationdb/foundationdb.conf` 的内容替换为上述相应配置。
-
-### 配置访问权限
-
-先设置 `/etc/foundationdb` 目录的访问权限:
-
-```Shell
-chmod -R 777 /etc/foundationdb
-```
-
-在主机中修改 `/etc/foundationdb/fdb.cluster` 中的 `ip` 地址,默认是本机地址,修改为内网地址,如:
-
-```Shell
-3OrXp9ei:[email protected]:4500 -> 3OrXp9ei:[email protected]:4500
-```
-
-然后重启 FoundationDB 服务:
-
-```shell
-# for service
-user@host$ sudo service foundationdb restart
-
-# for systemd
-user@host$ sudo systemctl restart foundationdb.service
-```
-
-### 配置新数据库
-
-主机由于更改了 `data` 和 `log` 的存放路径,需新建 `database`。可在 `fdbcli` 中新建一个 以`ssd` 为存储引擎的 
`database`。
-
-```Shell
-user@host$ fdbcli
-fdb> configure new single ssd
-Database created
-```
-
-最后通过 `fdbcli` 检测是否启动正常。
+##### 必需的自定义设置
 
-```Shell
-user@host$ fdbcli
-Using cluster file `/etc/foundationdb/fdb.cluster'.
+| 参数 | 描述 | 类型 | 示例 | 注意事项 |
+|------|------|------|------|----------|
+| `DATA_DIRS` | 指定 FoundationDB 存储的数据目录 | 以逗号分隔的绝对路径列表 | 
`/mnt/foundationdb/data1,/mnt/foundationdb/data2,/mnt/foundationdb/data3` | - 
运行脚本前确保目录已创建<br>- 生产环境建议使用 SSD 和独立目录 |
+| `FDB_CLUSTER_IPS` | 定义集群 IP | 字符串(以逗号分隔的 IP 地址) | 
`172.200.0.2,172.200.0.3,172.200.0.4` | - 生产集群至少应有 3 个 IP 地址<br>- 第一个 IP 
地址将用作协调器<br>- 为高可用性,将机器放置在不同机架上 |
+| `FDB_HOME` | 定义 FoundationDB 主目录 | 绝对路径 | `/fdbhome` | - 默认路径为 /fdbhome<br>- 
确保此路径是绝对路径 |
+| `FDB_CLUSTER_ID` | 定义集群 ID | 字符串 | `SAQESzbh` | - 每个集群的 ID 必须唯一<br>- 可使用 
`mktemp -u XXXXXXXX` 生成 |
+| `FDB_CLUSTER_DESC` | 定义 FDB 集群的描述 | 字符串 | `doris-fdb` | - 建议更改为对部署有意义的内容 |
 
-The database is available.
+##### 可选的自定义设置
 
-Welcome to the fdbcli. For help, type `help'.
-```
-
-至此,主机的配置完成。
-
-### 构建 FoundationDB 集群
-
-:::tip
-
-如果仅部署一台机器进行开发/测试,可以跳过此步骤。
-
-:::
-
-对于主机以外的机器,每台机器先按照主机配置步骤,创建 `data` 和 `log` 目录。
+| 参数 | 描述 | 类型 | 示例 | 注意事项 |
+|------|------|------|------|----------|
+| `MEMORY_LIMIT_GB` | 定义 FDB 进程的内存限制,单位为 GB | 整数 | `MEMORY_LIMIT_GB=16` | 
根据可用内存资源和 FDB 进程的要求调整此值 |
+| `CPU_CORES_LIMIT` | 定义 FDB 进程的 CPU 核心限制 | 整数 | `CPU_CORES_LIMIT=8` | 根据可用的 
CPU 核心数量和 FDB 进程的要求设置此值 |
 
-然后,设置 `/etc/foundationdb` 目录的访问权限:
+#### 5.3 部署 FDB 集群
 
-```Shell
-chmod -R 777 /etc/foundationdb
-```
-
-将主机的 `/etc/foundationdb/foundationdb.conf `和`/etc/foundationdb/fdb.cluster` 
替换为本机的 `/etc/foundationdb/foundationdb.conf `和`/etc/foundationdb/fdb.cluster`。
-
-随后在本机重启 FoundationDB 服务。
+使用 `fdb_vars.sh` 配置环境后,您可以在每个节点上使用 `fdb_ctl.sh` 脚本部署 FDB 集群。
 
-```shell
-# for service
-user@host$ sudo service foundationdb restart
-
-# for systemd
-user@host$ sudo systemctl restart foundationdb.service
+```bash
+./fdb_ctl.sh deploy
 ```
 
-待所有机器操作完毕后,所有机器都已连接在同一集群上(即同一 `fdb.cluster`)。此时登录主机,配置双副本模式:
+此命令启动 FDB 集群的部署过程。
 
-```Shell
-user@host$ fdbcli
-Using cluster file `/etc/foundationdb/fdb.cluster'.
+### 5.4 启动 FDB 服务
 
-The database is available.
+FDB 集群部署完成后,您可以使用 `fdb_ctl.sh` 脚本启动 FDB 服务。
 
-Welcome to the fdbcli. For help, type `help'.
-fdb> configure double
-Configuration changed.
+```bash
+./fdb_ctl.sh start
 ```
 
-然后在主机配置 `fdb.cluster` 可被访问的机器和端口,用于容灾:
+此命令启动 FDB 服务,使集群工作并获取 FDB 集群连接字符串,后续可以用于配置 MetaService。
 
-```Shell
-user@host$ fdbcli
-Using cluster file `/etc/foundationdb/fdb.cluster'.
+### 5.5 安装 OpenJDK 17
 
-The database is available.
+1. 下载 [OpenJDK 
17](https://download.java.net/java/GA/jdk17.0.1/2a2082e5a09d4267845be086888add4f/12/GPL/openjdk-17.0.1_linux-x64_bin.tar.gz)
+2. 解压并设置环境变量 JAVA_HOME.
 
-Welcome to the fdbcli. For help, type `help'.
-fdb> coordinators ${主机ip}:4500 ${从机1ip}:4500 ${从机2ip}:4500(需要填写所有机器)
-Coordinators changed
-```
+## 6. 后续步骤
 
-最后,通过 `fdbcli` 中的 `status` 检测模式是否配置成功:
-
-```Shell
-[root@ip-10-100-3-91 meta-service]# fdbcli
-Using cluster file `/etc/foundationdb/fdb.cluster'.
-
-The database is available.
-
-Welcome to the fdbcli. For help, type `help'.
-fdb> status
-
-Using cluster file `/etc/foundationdb/fdb.cluster'.
-
-Configuration:
-  Redundancy mode        - double
-  Storage engine         - ssd-2
-  Coordinators           - 3
-  Usable Regions         - 1
-
-Cluster:
-  FoundationDB processes - 15
-  Zones                  - 3
-  Machines               - 3
-  Memory availability    - 6.1 GB per process on machine with least available
-  Fault Tolerance        - 1 machines
-  Server time            - 11/11/22 04:47:30
-
-Data:
-  Replication health     - Healthy
-  Moving data            - 0.000 GB
-  Sum of key-value sizes - 0 MB
-  Disk space used        - 944 MB
-
-Operating space:
-  Storage server         - 473.9 GB free on most full server
-  Log server             - 473.9 GB free on most full server
-
-Workload:
-  Read rate              - 19 Hz
-  Write rate             - 0 Hz
-  Transactions started   - 5 Hz
-  Transactions committed - 0 Hz
-  Conflict rate          - 0 Hz
-
-Backup and DR:
-  Running backups        - 0
-  Running DRs            - 0
-```
-
-## 安装 OpenJDK 17
+完成上述准备工作后,请参考以下文档继续部署:
 
-OpenJDK 17 需安装到所有的节点上,可通过以下链接获取安装:[OpenJDK 
17](https://download.java.net/java/GA/jdk17.0.1/2a2082e5a09d4267845be086888add4f/12/GPL/openjdk-17.0.1_linux-x64_bin.tar.gz)
+1. [部署 Meta Service](./compilation-and-deployment.md)
+2. [部署 FE 和 BE](./creating-cluster.md)
 
-然后,将下载好的 OpenJDK 安装包直接解压到安装路径即可:
+## 7. 注意事项
 
-```shell
-tar xf openjdk-17.0.1_linux-x64_bin.tar.gz  -C /opt/
-
-# 启动 Meta Service 之前
-export JAVA_HOME=/opt/jdk-17.0.1
-```
+- 确保所有节点的时间同步
+- 定期备份 FoundationDB 数据
+- 根据实际负载调整 FoundationDB 和 Doris 的配置参数

Review Comment:
   fdb是不是磁盘空间需要大于95%



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/compilation-and-deployment.md:
##########
@@ -71,73 +84,189 @@ cat /etc/foundationdb/fdb.cluster
 cloud_ssb:[email protected]:4500
 ```
 
-### 启停
+### 3.2 启动与停止
 
-Meta Service 依赖 JAVA 运行环境,并使用 OpenJDK 17。在启动前这两个服务前,请确保已正确设置 `export 
JAVA_HOME` 环境变量。
+*环境要求*
 
-`doris_cloud` 部署的 `bin` 目录下提供了启停脚本,调用对应的启停脚本即可完成启停。
+确保已正确设置 `JAVA_HOME` 环境变量,指向 OpenJDK 17,进入 `ms` 目录。
 
-在 `ms` 目录中:
+*启动命令*
 
 ```Shell
 export JAVA_HOME=${path_to_jdk_17}
 bin/start.sh --daemon
+```
+
+*停止命令*
 
+``` shell
 bin/stop.sh
 ```
 
-若 Meta Service 进程正常启动,将能在 `doris_cloud.out` 文件中观察到 `successfully started` 
的输出信息。以下为一个启动的输出信息示例
+*验证启动*
 
-```
-2024-09-02 21:03:53 try to start doris_cloud
-process working directory: "/mnt/disk1/gavinchou/debug/doris-cloud/ms"
-pid=810125 written to file=./bin/doris_cloud.pid
-version:{doris_cloud-0.0.0-debug} 
code_version:{commit=7d94417e6ca10f3c77bea07caf4994af155b6e99 time=2024-09-02 
21:03:01 +0800} build_info:{initiator=gavinchou@VM-10-11-centos 
build_at=2024-09-02 21:03:01 +0800 build_on=NAME="TencentOS Se
-rver" VERSION="3.1 (Final)" }
-
-run doris_cloud as meta_service and recycler by default
-meta-service started
-recycler started
-successfully started brpc listening on port=6000 time_elapsed_ms=139
-```
+检查 `doris_cloud.out` 文件中是否有 `successfully started` 的输出信息。
 
-## 将数据回收功能作为单独进程部署
+## 4. 数据回收功能独立部署(可选)
 
-在一些场景中为了更好的隔离性以及稳定性,我们需要将元数据操作功能和数据回收功能分开不同的进程部署。
+*准备工作*
 
-在成功部署并启动 Meta Service 之后,Doris 存算分离模式的底座便已完成搭建。
+1. 创建新的工作目录(如 `recycler`)。
+2. 复制 `ms` 目录内容到新目录:
 
-`ms`目录也可以用于启动为数据回收功能进程,只需使用不同启动参数启动即可。
-需要注意的是,需要单独准备一个独立的工作目录,二进制以及配置文件都是单独的一份。
+   ```shell
+   cp -r ms recycler
+   ```
 
-使用以下命令从`ms`目录中拷贝二进制文件至一个新的 Recycler 工作目录`re`。
-```Shell
-cp -r ms re
-```
+*配置*
 
-Meta Service 启动脚本可以接受 `--meta-service` 和 `--recycler` 两个参数指定的是当前 Meta Service 
进程拥有什么样的能力。
-前者为元数据操作(主要提供一些在线实时元数据操作), 后者为数据回收功能(离线异步数据回收等流程)。
+在新目录的配置文件中修改 BRPC 监听端口。
 
-在 re 目录下对配置文件中的 BRPC 的监听端口号按需进行必要修改,然后使用 `--recycler` 参数启动即可。
+*启动数据回收功能*
 
 ```Shell
 export JAVA_HOME=${path_to_jdk_17}
 bin/start.sh --recycler --daemon
-
-bin/stop.sh
 ```
 
-这样我们得到了一个只有数据回收功能的 Meta Service 进程,它不负责元数据的操作,**在 FE BE 的配置中不要将只有回收功能的 Meta 
Service 进程其作为 `meta_service_endpoint` 配置的目标**。
+*启动仅元数据操作功能*
 
-同理,我们通过控制启动参数,也可以得到一个只有元数据操作功能的 Meta Service 进程
-在 ms 目录下使用以下参数启动
 ```Shell
 export JAVA_HOME=${path_to_jdk_17}
 bin/start.sh --meta-service --daemon
+```
 
-bin/stop.sh
+## 5. FE 和 BE 的启动流程
+
+本节详细说明了在存算分离架构下启动 FE(Frontend)和 BE(Backend)的步骤。
+
+### 5.1 启动顺序
+
+1. 以 MASTER 角色启动实例的第一个 FE
+2. 向实例中添加其他 FE 和 BE
+3. 添加第一个 Storage Vault
+
+### 5.2 启动 MASTER 角色的 FE
+
+#### 5.2.1 配置 fe.conf
+
+在 `fe.conf` 文件中,需要配置以下关键参数:
+
+1. `cluster_id`
+   - 描述:存算分离架构下集群的唯一标识符
+   - 格式:int 类型
+   - 示例:`12345678`
+
+2. `meta_service_endpoint`
+   - 描述:Meta Service 的地址和端口
+   - 格式:`IP地址:端口号`
+   - 示例:`127.0.0.1:5000`, 可以用逗号分割配置多个meta service。
+
+#### 5.2.2 启动 FE
+
+启动命令示例:
+
+```bash
+bin/start_fe.sh --daemon
+```
+
+### 5.3 添加其他 FE 节点
+
+使用以下 SQL 命令添加额外的 FE 节点:
+
+```sql
+ALTER SYSTEM ADD FOLLOWER "host:port";
+```
+
+将 `host:port` 替换为实际的 FE 节点地址和端口。
+
+### 5.4 添加 BE 节点
+
+要向集群添加 Backend 节点,请对每个 Backend 执行以下步骤:
+
+1. 启动 Backend:
+
+   使用以下命令启动 Backend:
+
+   ```bash
+   bin/start_be.sh --daemon
+   ```
+
+2. 将 Backend 添加到集群:
+
+   使用 MySQL 客户端连接到任意 Frontend,并执行:
+
+   ```sql
+   ALTER SYSTEM ADD BACKEND "<ip>:<heartbeat_service_port>" [PROTERTIES 
propertires];
+   ```
+
+   将 `<ip>` 替换为新 Backend 的 IP 地址,将 `<heartbeat_service_port>` 
替换为其配置的心跳服务端口(默认为 9050)。
+
+   可以通过 PROPERTIES 设置 BE 所在的 计算组。
+
+   更详细的用法请参考 [ADD 
BACKEND](../sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md)
 和 [REMOVE 
BACKEND](../sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-DROP-BACKEND.md)。
+
+3. 验证 Backend 状态:
+
+   检查 Backend 日志文件(`be.log`)以确保它已成功启动并加入集群。
+
+   您还可以使用以下 SQL 命令检查 Backend 状态:
+
+   ```sql
+   SHOW BACKENDS;
+   ```
+
+   这将显示集群中所有 Backend 及其当前状态。
+
+## 6. 创建 Storage Vault 
+
+ Storage Vault 是 Doris 存算分离架构中的重要组件。它们代表了存储数据的共享存储层。您可以使用 HDFS 或兼容 S3 
的对象存储创建一个或多个 Storage Vault 。首个创建的 Storage Vault 将成为默认 Storage Vault 。系统表和未指定 
Storage Vault 的表都将存储在这个默认 Storage Vault 中。默认 Storage Vault 不能被删除。以下是为您的 Doris 
集群创建 Storage Vault 的方法:
+
+### 6.1 创建 HDFS  Storage Vault 
+
+要使用 SQL 创建 Storage Vault ,请使用 MySQL 客户端连接到您的 Doris 集群
+
+```sql
+CREATE STORAGE VAULT IF NOT EXISTS hdfs_vault
+    PROPERTIES (
+    "type"="hdfs",
+    "fs.defaultFS"="hdfs://127.0.0.1:8020"
+    );
+```
+
+### 6.2 创建 S3  Storage Vault 
+
+要使用兼容 S3 的对象存储创建 Storage Vault ,请按照以下步骤操作:
+
+1. 使用 MySQL 客户端连接到您的 Doris 集群。
+
+2. 执行以下 SQL 命令来创建 S3  Storage Vault :
+
+```sql
+CREATE STORAGE VAULT IF NOT EXISTS s3_vault
+    PROPERTIES (
+    "type"="S3",
+    "s3.endpoint"="s3.us-east-1.amazonaws.com",
+    "s3.access_key" = "ak",
+    "s3.secret_key" = "sk",
+    "s3.region" = "us-east-1",
+    "s3.root.path" = "ssb_sf1_p2_s3",
+    "s3.bucket" = "doris-build-1308700295",
+    "provider" = "S3"
+    );
+```
+
+要在其他对象存储上创建 Storage Vault ,请参考 [创建 Storage Vault 
](../sql-manual/sql-statements/Data-Definition-Statements/Create/CREATE-STORAGE-VAULT.md)。
+
+### 6.3 设置默认 Storage Vault 
+
+使用如下 SQL 语句设置一个默认 Storage Vault 。
+
+```sql
+SET <storage_vault_name> AS DEFAULT STORAGE VAULT
 ```
-这样我们得到了一个只有元数据操作功能的 Meta Service 进程,这些进程可以作为 FE BE 的配置 `meta_service_endpoint` 
配置的目标。
 
-通过上述操作我们可以将 Meta Service 的离线的任务和在线的任务处理剥离到不同进程处理,大大提高了系统的稳定性。
+## 7. 注意事项
 
+- 仅元数据操作功能的 Meta Service 进程应作为 FE 和 BE 的 `meta_service_endpoint` 配置目标。
+- 数据回收功能进程不应作为 `meta_service_endpoint` 配置目标。

Review Comment:
   这两句话有点像英文翻译成的中文



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/sql-manual/sql-statements/Database-Administration-Statements/WARM-UP-COMPUTE-GROUP.md:
##########
@@ -0,0 +1,82 @@
+---
+{
+    "title": "WARM UP COMPUTE GROUP",
+    "language": "zh_CN"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## 描述
+
+WARM UP COMPUTE GROUP 
语句用于预热计算组中的数据,以提高查询性能。预热操作可以从另一个计算组中获取资源,也可以指定特定的表和分区进行预热。预热操作返回一个作业ID,可以用于追踪预热作业的状态。
+
+## 语法
+
+```sql
+
+WARM UP COMPUTE GROUP <destination_compute_group_name> WITH COMPUTE GROUP 
<source_compute_group_name> FORCE;
+
+WARM UP COMPUTE GROUP <destination_compute_group_name> WITH <warm_up_list>;
+
+warm_up_list ::= warm_up_item [AND warm_up_item...];
+
+warm_up_item ::= TABLE <table_name> [PARTITION <partition_name>];
+
+```
+
+## 参数
+
+* destination_compute_group_name: 要预热的目标计算组的名称。
+
+* source_compute_group_name: 从中获取资源的源集群的名称。
+
+* warm_up_list: 要预热的特定项目的列表,可以包括表和分区。
+
+* table_name: 用于预热的表的名称。
+
+* partition_name: 用于预热的分区的名称。
+
+## 返回值
+
+* JobId: 预热作业的ID。
+
+## 示例
+
+1. 使用名为source_group_name的计算组预热名为destination_group_name的计算组。
+
+```sql
+   WARM UP COMPUTE GROUP destination_group_name WITH COMPUTE GROUP 
source_group_name.

Review Comment:
   要以`;`结尾而非`.`



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/sql-manual/sql-statements/Database-Administration-Statements/WARM-UP-COMPUTE-GROUP.md:
##########
@@ -0,0 +1,82 @@
+---
+{
+    "title": "WARM UP COMPUTE GROUP",
+    "language": "zh_CN"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## 描述
+
+WARM UP COMPUTE GROUP 
语句用于预热计算组中的数据,以提高查询性能。预热操作可以从另一个计算组中获取资源,也可以指定特定的表和分区进行预热。预热操作返回一个作业ID,可以用于追踪预热作业的状态。
+
+## 语法
+
+```sql
+
+WARM UP COMPUTE GROUP <destination_compute_group_name> WITH COMPUTE GROUP 
<source_compute_group_name> FORCE;
+
+WARM UP COMPUTE GROUP <destination_compute_group_name> WITH <warm_up_list>;
+
+warm_up_list ::= warm_up_item [AND warm_up_item...];
+
+warm_up_item ::= TABLE <table_name> [PARTITION <partition_name>];
+
+```
+
+## 参数
+
+* destination_compute_group_name: 要预热的目标计算组的名称。
+
+* source_compute_group_name: 从中获取资源的源集群的名称。
+
+* warm_up_list: 要预热的特定项目的列表,可以包括表和分区。
+
+* table_name: 用于预热的表的名称。
+
+* partition_name: 用于预热的分区的名称。
+
+## 返回值
+
+* JobId: 预热作业的ID。
+
+## 示例
+
+1. 使用名为source_group_name的计算组预热名为destination_group_name的计算组。
+
+```sql
+   WARM UP COMPUTE GROUP destination_group_name WITH COMPUTE GROUP 
source_group_name.

Review Comment:
   以`;`结尾而非`.`



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/sql-manual/sql-statements/Show-Statements/SHOW-CACHE-HOTSPOT.md:
##########
@@ -0,0 +1,61 @@
+---
+{
+    "title": "SHOW-CACHE-HOTSPOT",
+    "language": "zh-CN"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## 描述
+
+该语句用于显示文件缓存的热点信息。
+
+## 语法
+
+```sql
+   SHOW CACHE HOTSPOT '/[compute_group_name/table_name]';
+```
+
+## 参数
+
+* compute_group_name : 计算组的名称。
+* table_name : 表的名称。
+
+## 示例
+
+1. 查看某个表的创建语句
+
+    ```sql
+    SHOW CACHE HOTSPOT '/';
+    ```
+
+## 相关命令
+
+ - [WARMUP CACHE]
+
+## 参考
+
+ - [管理文件缓存]

Review Comment:
   ```
   [管理文件缓存](../../../compute-storage-decoupled/file-cache.md)
   ```



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/maganing-storage-vault.md:
##########
@@ -0,0 +1,170 @@
+---
+{
+    "title": "管理 Storage Vault",
+    "language": "zh-CN"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+Storage Vault 是 Doris 在存算分离模式中所使用的远程共享存储,可配置一个或多个 Storage Vault,可将不同表存储在不同 
Storage Vault 上。
+
+## 创建 Storage Vault
+
+**语法**
+
+```SQL
+CREATE STORAGE VAULT [IF NOT EXISTS] <vault_name>
+PROPERTIES
+("key" = "value",...)
+```
+
+<vault_name> 是用户定义的 Storage Vault 名称,是用户接口用于访问 Storage Vault 的标识。
+
+**示例**
+
+**创建 HDFS  Storage Vault **
+
+创建基于 HDFS 的存算分离模式 Doris 集群,需要确保所有的节点(包括 FE / BE 节点、Meta Service) 均有权限访问所指定的 
HDFS,包括提前完成机器的 Kerberos 授权配置和连通性检查(可在对应的每个节点上使用 Hadoop Client 进行测试)等。
+
+```SQL
+CREATE STORAGE VAULT IF NOT EXISTS ssb_hdfs_vault
+    PROPERTIES (
+        "type"="hdfs",                                     -- required
+        "fs.defaultFS"="hdfs://127.0.0.1:8020",            -- required
+        "path_prefix"="big/data",                          -- optional,  
一般按照业务名称填写
+        "hadoop.username"="user"                           -- optional
+        "hadoop.security.authentication"="kerberos"        -- optional
+        "hadoop.kerberos.principal"="hadoop/127.0.0.1@XXX" -- optional
+        "hadoop.kerberos.keytab"="/etc/emr.keytab"         -- optional
+    );
+```
+
+**创建 S3  Storage Vault **
+
+```SQL
+CREATE STORAGE VAULT IF NOT EXISTS ssb_s3_vault
+    PROPERTIES (
+        "type"="S3",                                   -- required
+        "s3.endpoint" = "oss-cn-beijing.aliyuncs.com", -- required
+        "s3.region" = "bj",                            -- required

Review Comment:
   缺少 s3.bucket



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/sql-manual/sql-statements/Database-Administration-Statements/SET-DEFAULT-STORAGE-VAULT.md:
##########
@@ -0,0 +1,57 @@
+---
+{
+    "title": "SET-DEFAULT-STORAGE-VAULT",
+    "language": "zh-CN"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## SET-DEFAULT-STORAGE-VAULT
+
+### 名称
+
+SET DEFAULT STORAGE VAULT
+
+### 描述
+
+该语句用于在Doris中设置默认存储库。默认存储库用于存储内部或系统表的数据。如果未设置默认存储库,Doris将无法正常运行。一旦设置了默认存储库,就无法移除它。
+
+### 语法
+
+```sql
+SET vault_name DEFAULT STORAGE VAULT

Review Comment:
   SET vault_name AS DEFAULT STORAGE VAULT



##########
versioned_docs/version-3.0/sql-manual/sql-statements/Database-Administration-Statements/WARM-UP-COMPUTE-GROUP.md:
##########
@@ -0,0 +1,81 @@
+---
+{
+    "title": "WARM UP COMPUTE GROUP",
+    "language": "en"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## Description
+
+The WARM UP COMPUTE GROUP statement is used to warm up data in a compute group 
to improve query performance. The warming operation can either retrieve 
resources from another compute group or specify particular tables and 
partitions for warming. The warming operation returns a job ID that can be used 
to track the status of the warming job.
+
+## Syntax
+
+```sql
+WARM UP COMPUTE GROUP <destination_compute_group_name> WITH COMPUTE GROUP 
<source_compute_group_name>;
+
+WARM UP COMPUTE GROUP <destination_compute_group_name> WITH <warm_up_list>;
+
+warm_up_list ::= warm_up_item [AND warm_up_item...];
+
+warm_up_item ::= TABLE <table_name> [PARTITION <partition_name>];
+
+```
+
+## Parameters
+
+* destination_compute_group_name: The name of the destination compute group 
that is to be warmed up.
+
+* source_compute_group_name(Optional) The name of the source cluster from 
which resources will be warmed up.
+
+* warm_up_list: (Optional) A list of specific items to warm up, which can 
include tables and partitions.
+
+* table_name: The name of the table is used to warmup.
+
+* partition_name: The name of the partition is used to warmup.
+
+## Return Values
+
+* JobId: the id of warm-up job.
+
+## Example
+
+1. Warm up a compute group named destination_group_name with a compute group 
named source_group_name.
+
+```sql
+   WARM UP COMPUTE GROUP destination_group_name WITH COMPUTE GROUP 
source_group_name.

Review Comment:
   Ending with `;` instead of `.`



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/maganing-storage-vault.md:
##########
@@ -0,0 +1,170 @@
+---
+{
+    "title": "管理 Storage Vault",
+    "language": "zh-CN"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+Storage Vault 是 Doris 在存算分离模式中所使用的远程共享存储,可配置一个或多个 Storage Vault,可将不同表存储在不同 
Storage Vault 上。
+
+## 创建 Storage Vault
+
+**语法**
+
+```SQL
+CREATE STORAGE VAULT [IF NOT EXISTS] <vault_name>
+PROPERTIES
+("key" = "value",...)
+```
+
+<vault_name> 是用户定义的 Storage Vault 名称,是用户接口用于访问 Storage Vault 的标识。
+
+**示例**
+
+**创建 HDFS  Storage Vault **
+
+创建基于 HDFS 的存算分离模式 Doris 集群,需要确保所有的节点(包括 FE / BE 节点、Meta Service) 均有权限访问所指定的 
HDFS,包括提前完成机器的 Kerberos 授权配置和连通性检查(可在对应的每个节点上使用 Hadoop Client 进行测试)等。
+
+```SQL
+CREATE STORAGE VAULT IF NOT EXISTS ssb_hdfs_vault
+    PROPERTIES (
+        "type"="hdfs",                                     -- required
+        "fs.defaultFS"="hdfs://127.0.0.1:8020",            -- required
+        "path_prefix"="big/data",                          -- optional,  
一般按照业务名称填写
+        "hadoop.username"="user"                           -- optional
+        "hadoop.security.authentication"="kerberos"        -- optional
+        "hadoop.kerberos.principal"="hadoop/127.0.0.1@XXX" -- optional
+        "hadoop.kerberos.keytab"="/etc/emr.keytab"         -- optional
+    );
+```
+
+**创建 S3  Storage Vault **
+
+```SQL
+CREATE STORAGE VAULT IF NOT EXISTS ssb_s3_vault
+    PROPERTIES (
+        "type"="S3",                                   -- required
+        "s3.endpoint" = "oss-cn-beijing.aliyuncs.com", -- required
+        "s3.region" = "bj",                            -- required
+        "s3.root.path" = "big/data/prefix",            -- required
+        "s3.access_key" = "ak",                        -- required
+        "s3.secret_key" = "sk",                        -- required
+        "provider" = "cos",                            -- required

Review Comment:
   最后一行不能以`,`结尾



##########
versioned_docs/version-3.0/sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md:
##########
@@ -32,32 +32,47 @@ ALTER SYSTEM ADD BACKEND
 
 ### Description
 
-This statement is used to manipulate nodes within a system. (Administrator 
only!)
+The ADD BACKEND command is used to add one or more backend nodes to a Doris 
OLAP database cluster. This command allows administrators to specify the host 
and port of the new backend nodes, along with optional properties that 
configure their behavior.
 
 grammar:
 
 ```sql
 -- Add nodes (add this method if you do not use the multi-tenancy function)
-   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...];
-```
+   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...] 
[PROPERTIES ("key"="value", ...)];
+````
 
- illustrate:
+### Parameters
 
-1. host can be a hostname or an ip address
-2. heartbeat_port is the heartbeat port of the node
-3. Adding and deleting nodes is a synchronous operation. These two operations 
do not consider the existing data on the node, and the node is directly deleted 
from the metadata, please use it with caution.
+* `host` can be a hostname or an ip address of the backend node while 
`heartbeat_port` is the heartbeat port of the node
+* `PROPERTIES ("key"="value", ...)`: (Optional) A set of key-value pairs that 
define additional properties for the backend nodes. These properties can be 
used to customize the configuration of the backends being added. Available 
properties include:
+
+    * tag.location: Specifies the resource group where the backend node 
belongs. For example, PROPERTIES ("tag.location" = "groupb").
 
 ### Example
 
- 1. Add a node
+ 1. Adding Backends Without Additional Properties 
 
     ```sql
-    ALTER SYSTEM ADD BACKEND "host:port";
-    ```
+    ALTER SYSTEM ADD BACKEND "host1:9020,host2:9020";
+    ````
+
+    This command adds two backend nodes to the cluster:
+
+    * host1 with port 9020

Review Comment:
   9020默认是FE 上的 thrift server端口,这里应该改成9050比较好



##########
versioned_docs/version-2.0/sql-manual/sql-reference/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md:
##########
@@ -32,32 +32,47 @@ ALTER SYSTEM ADD BACKEND
 
 ### Description
 
-This statement is used to manipulate nodes within a system. (Administrator 
only!)
+The ADD BACKEND command is used to add one or more backend nodes to a Doris 
OLAP database cluster. This command allows administrators to specify the host 
and port of the new backend nodes, along with optional properties that 
configure their behavior.
 
 grammar:
 
 ```sql
 -- Add nodes (add this method if you do not use the multi-tenancy function)
-   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...];
-```
+   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...] 
[PROPERTIES ("key"="value", ...)];
+````
 
- illustrate:
+### Parameters
 
-1. host can be a hostname or an ip address
-2. heartbeat_port is the heartbeat port of the node
-3. Adding and deleting nodes is a synchronous operation. These two operations 
do not consider the existing data on the node, and the node is directly deleted 
from the metadata, please use it with caution.
+* `host` can be a hostname or an ip address of the backend node while 
`heartbeat_port` is the heartbeat port of the node
+* `PROPERTIES ("key"="value", ...)`: (Optional) A set of key-value pairs that 
define additional properties for the backend nodes. These properties can be 
used to customize the configuration of the backends being added. Available 
properties include:
+
+    * tag.location: Specifies the resource group where the backend node 
belongs. For example, PROPERTIES ("tag.location" = "groupb").
 
 ### Example
 
- 1. Add a node
+ 1. Adding Backends Without Additional Properties 
 
     ```sql
-    ALTER SYSTEM ADD BACKEND "host:port";
-    ```
+    ALTER SYSTEM ADD BACKEND "host1:9020,host2:9020";
+    ````
+
+    This command adds two backend nodes to the cluster:
+
+    * host1 with port 9020

Review Comment:
   9020默认是FE 上的 thrift server端口,这里应该改成9050比较好



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/file-cache.md:
##########
@@ -96,35 +184,33 @@ ALTER TABLE customer set ("file_cache_ttl_seconds"="3000");
 
 如果在建表时没有设置 TTL,用户同样可以通过执行 ALTER 语句来修改表的 TTL 属性。
 
-:::
-
 ### 缓存预热
 
 目前支持三种缓存预热模式:
 
-- 将 `cluster_name0` 的缓存数据预热到 `cluster_name1` 。 
+- 将 `compute_group_name0` 的缓存数据预热到 `compute_group_name1` 。
 
-当执行以下 SQL 时,`cluster_name1` 计算集群会获取 `cluster_name0` 计算集群的访问信息,来尽可能还原出与 
`cluster_name0` 集群一致的缓存。
+当执行以下 SQL 时,`compute_group_name1` 计算组会获取 `compute_group_name0` 
计算组的访问信息,来尽可能还原出与 `compute_group_name0` 计算组一致的缓存。
 
 ```Plain
-warm up cluster cluster_name1 with cluster cluster_name0
+warm up cluster compute_group_name1 with cluster compute_group_name0

Review Comment:
   如果语法改为 WARM UP COMPUTE GROUP 了,这边的例子应该都更改



##########
versioned_docs/version-2.1/sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md:
##########
@@ -32,32 +32,47 @@ ALTER SYSTEM ADD BACKEND
 
 ### Description
 
-This statement is used to manipulate nodes within a system. (Administrator 
only!)
+The ADD BACKEND command is used to add one or more backend nodes to a Doris 
OLAP database cluster. This command allows administrators to specify the host 
and port of the new backend nodes, along with optional properties that 
configure their behavior.
 
 grammar:
 
 ```sql
 -- Add nodes (add this method if you do not use the multi-tenancy function)
-   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...];
-```
+   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...] 
[PROPERTIES ("key"="value", ...)];
+````
 
- illustrate:
+### Parameters
 
-1. host can be a hostname or an ip address
-2. heartbeat_port is the heartbeat port of the node
-3. Adding and deleting nodes is a synchronous operation. These two operations 
do not consider the existing data on the node, and the node is directly deleted 
from the metadata, please use it with caution.
+* `host` can be a hostname or an ip address of the backend node while 
`heartbeat_port` is the heartbeat port of the node
+* `PROPERTIES ("key"="value", ...)`: (Optional) A set of key-value pairs that 
define additional properties for the backend nodes. These properties can be 
used to customize the configuration of the backends being added. Available 
properties include:
+
+    * tag.location: Specifies the resource group where the backend node 
belongs. For example, PROPERTIES ("tag.location" = "groupb").
 
 ### Example
 
- 1. Add a node
+ 1. Adding Backends Without Additional Properties 
 
     ```sql
-    ALTER SYSTEM ADD BACKEND "host:port";
-    ```
+    ALTER SYSTEM ADD BACKEND "host1:9020,host2:9020";
+    ````
+
+    This command adds two backend nodes to the cluster:
+
+    * host1 with port 9020

Review Comment:
   9020默认是FE 上的 thrift server端口,这里应该改成9050比较好



##########
versioned_docs/version-3.0/sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md:
##########
@@ -32,32 +32,47 @@ ALTER SYSTEM ADD BACKEND
 
 ### Description
 
-This statement is used to manipulate nodes within a system. (Administrator 
only!)
+The ADD BACKEND command is used to add one or more backend nodes to a Doris 
OLAP database cluster. This command allows administrators to specify the host 
and port of the new backend nodes, along with optional properties that 
configure their behavior.
 
 grammar:
 
 ```sql
 -- Add nodes (add this method if you do not use the multi-tenancy function)
-   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...];
-```
+   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...] 
[PROPERTIES ("key"="value", ...)];
+````
 
- illustrate:
+### Parameters
 
-1. host can be a hostname or an ip address
-2. heartbeat_port is the heartbeat port of the node
-3. Adding and deleting nodes is a synchronous operation. These two operations 
do not consider the existing data on the node, and the node is directly deleted 
from the metadata, please use it with caution.
+* `host` can be a hostname or an ip address of the backend node while 
`heartbeat_port` is the heartbeat port of the node
+* `PROPERTIES ("key"="value", ...)`: (Optional) A set of key-value pairs that 
define additional properties for the backend nodes. These properties can be 
used to customize the configuration of the backends being added. Available 
properties include:
+
+    * tag.location: Specifies the resource group where the backend node 
belongs. For example, PROPERTIES ("tag.location" = "groupb").

Review Comment:
   tag.compute_group_name



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md:
##########
@@ -24,40 +24,66 @@ specific language governing permissions and limitations
 under the License.
 -->
 
-## ALTER-SYSTEM-ADD-BACKEND
+## ALTER SYSTEM ADD BACKEND
 
-### Name
+### 名称
 
 ALTER SYSTEM ADD BACKEND
 
-### Description
+### 描述
 
-该语句用于操作一个系统内的节点。(仅管理员使用!)
+ADD BACKEND 命令用于向 Doris OLAP 
数据库集群添加一个或多个后端节点。此命令允许管理员指定新后端节点的主机和端口,以及可选的属性来配置它们的行为。
 
-语法:
+grammar:
 
 ```sql
-1) 增加节点
-   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...];
-```
+   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...] 
[PROPERTIES ("key"="value", ...)];
+````
 
- 说明:
+### 参数
 
-1. host 可以是主机名或者ip地址
-2. heartbeat_port 为该节点的心跳端口
-3. 增加和删除节点为同步操作。这两种操作不考虑节点上已有的数据,节点直接从元数据中删除,请谨慎使用。
+* `host`:可以是后端节点的主机名或 IP 地址
+* `heartbeat_port`:节点的心跳端口
+* `PROPERTIES ("key"="value", 
...)`:(可选)一组键值对,用于定义后端节点的附加属性。这些属性可用于自定义正在添加的后端的配置。可用属性包括:
 
-### Example
+    * tag.location:指定后端节点所属的资源组。例如,PROPERTIES ("tag.location" = "groupb")。

Review Comment:
   3.0 的文档不用加 `tag.compute_group_name` 这个吗?



##########
i18n/zh-CN/docusaurus-plugin-content-docs/current/compute-storage-decoupled/overview.md:
##########
@@ -85,21 +79,21 @@ Meta Service 是 Doris 存算分离元数据服务,主要负责处理导入事
 - 负载(完全)隔离:不同业务之间可在共享数据的基础上隔离计算资源,兼具稳定性和高效率。
 - 低存储成本:可以使用更低成本的对象存储,HDFS 等低成本存储。
 
-### **存算分离的**适用场景
+### 存算分离的适用场景
 
 - 已使用公有云服务
 - 具备可靠的共享存储系统,比如 HDFS、Ceph、对象存储等
 - 需要极致的弹性扩缩容,需要 K8S 容器化,需要运行在私有云上
 - 有专职团队维护整个公司的数据仓库平台
 
-## 基于存算分离实现多计算集群工作负载隔离
+## 基于存算分离实现多计算组工作负载隔离
 
-如前所述,一个或多个无状态的 BE 节点可以组成计算集群,可以运用计算集群指定语句 (`use @<cluster_name>`) 
将特定负载指定到特定的计算集群中,从而实现多导入以及查询负载的物理隔离。
+如前所述,一个或多个无状态的 BE 节点可以组成计算组,可以运用计算组指定语句 (`use @<cluster_name>`) 
将特定负载指定到特定的计算组中,从而实现多导入以及查询负载的物理隔离。

Review Comment:
   `use @<cluster_name>` -> `use @<compute_group>`



##########
i18n/zh-CN/docusaurus-plugin-content-docs/version-3.0/sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md:
##########
@@ -24,40 +24,66 @@ specific language governing permissions and limitations
 under the License.
 -->
 
-## ALTER-SYSTEM-ADD-BACKEND
+## ALTER SYSTEM ADD BACKEND
 
-### Name
+### 名称
 
 ALTER SYSTEM ADD BACKEND
 
-### Description
+### 描述
 
-该语句用于操作一个系统内的节点。(仅管理员使用!)
+ADD BACKEND 命令用于向 Doris OLAP 
数据库集群添加一个或多个后端节点。此命令允许管理员指定新后端节点的主机和端口,以及可选的属性来配置它们的行为。
 
-语法:
+grammar:

Review Comment:
   dev文档这里用`语法`,3.0的文档为什么又改成`grammar`



##########
versioned_docs/version-3.0/sql-manual/sql-statements/Show-Statements/SHOW-CACHE-HOTSPOT.md:
##########
@@ -0,0 +1,61 @@
+---
+{
+    "title": "SHOW-CACHE-HOTSPOT",
+    "language": "en"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## Description
+
+This statement is used to display the hotspot information of file cache.
+
+## Syntax
+
+```sql
+   SHOW CACHE HOTSPOT '/[compute_group_name/table_name]';
+```
+
+## Parameters
+
+1. compute_group_name : Name of compute group.
+2. table_name : Name of table.
+
+## Example
+
+1. View the table creation statement of a table
+
+    ```sql
+    SHOW CACHE HOTSPOT '/';
+    ```
+
+## Related Commands
+
+ - [WARMUP CACHE]
+
+## References
+
+ - [MANAGING FILE CACHE]

Review Comment:
   ```
   [MANAGING FILE CACHE](../../../compute-storage-decoupled/file-cache.md)
   ```



##########
versioned_docs/version-3.0/sql-manual/sql-statements/Database-Administration-Statements/SET-DEFAULT-STORAGE-VAULT.md:
##########
@@ -0,0 +1,57 @@
+---
+{
+    "title": "SET-DEFAULT-STORAGE-VAULT",
+    "language": "en"
+}
+---
+
+<!--
+Licensed to the Apache Software Foundation (ASF) under one
+or more contributor license agreements.  See the NOTICE file
+distributed with this work for additional information
+regarding copyright ownership.  The ASF licenses this file
+to you under the Apache License, Version 2.0 (the
+"License"); you may not use this file except in compliance
+with the License.  You may obtain a copy of the License at
+
+  http://www.apache.org/licenses/LICENSE-2.0
+
+Unless required by applicable law or agreed to in writing,
+software distributed under the License is distributed on an
+"AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
+KIND, either express or implied.  See the License for the
+specific language governing permissions and limitations
+under the License.
+-->
+
+## SET-DEFAULT-STORAGE-VAULT
+
+### Name
+
+SET DEFAULT STORAGE VAULT
+
+### Description
+
+This statement is used to set a default storage vault in Doris. The default 
storage vault is used to store data of internal or system tables. If a default 
storage vault is not set, Doris will not function properly. The default storage 
vault cannot be removed once it is set.
+
+### Syntax
+
+```sql
+SET vault_name DEFAULT STORAGE VAULT

Review Comment:
   SET vault_name AS DEFAULT STORAGE VAULT



##########
docs/sql-manual/sql-statements/Cluster-Management-Statements/ALTER-SYSTEM-ADD-BACKEND.md:
##########
@@ -32,32 +32,56 @@ ALTER SYSTEM ADD BACKEND
 
 ### Description
 
-This statement is used to manipulate nodes within a system. (Administrator 
only!)
+The ADD BACKEND command is used to add one or more backend nodes to a Doris 
OLAP database cluster. This command allows administrators to specify the host 
and port of the new backend nodes, along with optional properties that 
configure their behavior.
 
 grammar:
 
 ```sql
 -- Add nodes (add this method if you do not use the multi-tenancy function)
-   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...];
-```
+   ALTER SYSTEM ADD BACKEND "host:heartbeat_port"[,"host:heartbeat_port"...] 
[PROPERTIES ("key"="value", ...)];
+````
 
- illustrate:
+### Parameters
 
-1. host can be a hostname or an ip address
-2. heartbeat_port is the heartbeat port of the node
-3. Adding and deleting nodes is a synchronous operation. These two operations 
do not consider the existing data on the node, and the node is directly deleted 
from the metadata, please use it with caution.
+* `host` can be a hostname or an ip address of the backend node while 
`heartbeat_port` is the heartbeat port of the node
+* `PROPERTIES ("key"="value", ...)`: (Optional) A set of key-value pairs that 
define additional properties for the backend nodes. These properties can be 
used to customize the configuration of the backends being added. Available 
properties include:
+
+    * tag.location: Specifies the resource group where the backend node 
belongs. For example, PROPERTIES ("tag.location" = "groupb").
+    * tag.location: Specifies the resource group where the backend node 
belongs. For example, PROPERTIES ("tag.compute_group_name" = "groupb").
 
 ### Example
 
- 1. Add a node
+ 1. Adding Backends Without Additional Properties 
+
+    ```sql
+    ALTER SYSTEM ADD BACKEND "host1:9020,host2:9020";
+    ````
+
+    This command adds two backend nodes to the cluster:
+
+    * host1 with port 9020

Review Comment:
   why not use 9050 in demo



-- 
This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

To unsubscribe, e-mail: [email protected]

For queries about this service, please contact Infrastructure at:
[email protected]


---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]

Reply via email to