This is an automated email from the ASF dual-hosted git repository.

fanjia pushed a commit to branch main
in repository https://gitbox.apache.org/repos/asf/seatunnel-website.git


The following commit(s) were added to refs/heads/main by this push:
     new 2843762fb0b Fix translate error in about.md (#345)
2843762fb0b is described below

commit 2843762fb0b2bd9f58a60d28d54574f5b8747418
Author: Shen Yi <[email protected]>
AuthorDate: Tue Nov 5 20:36:51 2024 +0800

    Fix translate error in about.md (#345)
---
 .../version-2.3.5/seatunnel-engine/about.md                             | 2 +-
 1 file changed, 1 insertion(+), 1 deletion(-)

diff --git 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.3.5/seatunnel-engine/about.md
 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.3.5/seatunnel-engine/about.md
index 6e5de112a29..e903b935c30 100644
--- 
a/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.3.5/seatunnel-engine/about.md
+++ 
b/i18n/zh-CN/docusaurus-plugin-content-docs/version-2.3.5/seatunnel-engine/about.md
@@ -11,7 +11,7 @@ SeaTunnel Engine 的整体设计遵循以下路径:
 
 - 更快,SeaTunnel Engine 
的执行计划优化器旨在减少数据网络传输,从而减少由于数据序列化和反序列化造成的整体同步性能损失,使用户能够更快地完成数据同步操作。同时,支持速度限制,以合理速度同步数据。
 - 更稳定,SeaTunnel Engine 使用 Pipeline 
作为数据同步任务的最小粒度的检查点和容错。任务的失败只会影响其上游和下游任务,避免了任务失败导致整个作业失败或回滚的情况。同时,SeaTunnel 
Engine 
还支持数据缓存,用于源数据有存储时间限制的场景。当启用缓存时,从源读取的数据将自动缓存,然后由下游任务读取并写入目标。在这种情况下,即使由于目标失败而无法写入数据,也不会影响源的常规读取,防止源数据过期被删除。
-- 节省空间,SeaTunnel Engine 内部使用动态线程共享技术。在实时同步场景中,对于每个表数据量很大但每个表数据量很小的表,SeaTunnel 
Engine 将在共享线程中运行这些同步任务,以减少不必要的线程创建并节省系统空间。在读取和写入数据方面,SeaTunnel Engine 的设计目标是最小化 
JDBC 连接的数量;在 CDC 场景中,SeaTunnel Engine 将重用日志读取和解析资源。
+- 节省空间,SeaTunnel Engine 内部使用动态线程共享技术。在实时同步场景中,对于表数量很多但单个表数据量很小的表,SeaTunnel 
Engine 将在共享线程中运行这些同步任务,以减少不必要的线程创建并节省系统空间。在读取和写入数据方面,SeaTunnel Engine 的设计目标是最小化 
JDBC 连接的数量;在 CDC 场景中,SeaTunnel Engine 将重用日志读取和解析资源。
 - 简单易用,SeaTunnel Engine 减少了对第三方服务的依赖,并且可以独立于如 Zookeeper 和 HDFS 
等大数据组件实现集群管理、快照存储和集群 HA 功能。这对于目前缺乏大数据平台的用户,或者不愿意依赖大数据平台进行数据同步的用户来说非常有用。
 
 未来,SeaTunnel Engine 将进一步优化其功能,以支持离线批同步的全量同步和增量同步、实时同步和 CDC。

Reply via email to