This is an automated email from the ASF dual-hosted git repository.
vinoth pushed a commit to branch asf-site
in repository https://gitbox.apache.org/repos/asf/incubator-hudi.git
The following commit(s) were added to refs/heads/asf-site by this push:
new 609d5bf Travis CI build asf-site
609d5bf is described below
commit 609d5bf8c3d0a1f4461ff2e4aa548daceedd11d2
Author: CI <[email protected]>
AuthorDate: Sat Apr 25 13:14:10 2020 +0000
Travis CI build asf-site
---
content/assets/js/lunr/lunr-store.js | 2 +-
content/cn/docs/quick-start-guide.html | 8 ++++----
2 files changed, 5 insertions(+), 5 deletions(-)
diff --git a/content/assets/js/lunr/lunr-store.js
b/content/assets/js/lunr/lunr-store.js
index 1d0335b..f690419 100644
--- a/content/assets/js/lunr/lunr-store.js
+++ b/content/assets/js/lunr/lunr-store.js
@@ -545,7 +545,7 @@ var store = [{
"url": "https://hudi.apache.org/docs/oss_hoodie.html",
"teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
"title": "Quick-Start Guide",
-
"excerpt":"本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新的Hudi默认存储类型数据集:
写时复制。每次写操作之后,我们还将展示如何读取快照和增量读取数据。 设置spark-shell
Hudi适用于Spark-2.x版本。您可以按照此处的说明设置spark。 在提取的目录中,使用spark-shell运行Hudi:
bin/spark-shell --packages org.apache.hudi:hudi-spark-bundle:0.5.0-incubating
--conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer'
设置表名、基本路径和数据生成器来为本指南生成记录。 import org.apache.hudi.QuickstartUtils._ import
scala.collection.JavaConversions._ import org.apache.spark.sql. [...]
+
"excerpt":"本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新Hudi的默认存储类型数据集:
写时复制。每次写操作之后,我们还将展示如何读取快照和增量数据。 设置spark-shell
Hudi适用于Spark-2.x版本。您可以按照此处的说明设置spark。 在提取的目录中,使用spark-shell运行Hudi:
bin/spark-shell --packages org.apache.hudi:hudi-spark-bundle:0.5.0-incubating
--conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer'
设置表名、基本路径和数据生成器来为本指南生成记录。 import org.apache.hudi.QuickstartUtils._ import
scala.collection.JavaConversions._ import org.apache.spark.sql.Sa [...]
"tags": [],
"url": "https://hudi.apache.org/cn/docs/quick-start-guide.html",
"teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
diff --git a/content/cn/docs/quick-start-guide.html
b/content/cn/docs/quick-start-guide.html
index 3dcd47b..f1bd106 100644
--- a/content/cn/docs/quick-start-guide.html
+++ b/content/cn/docs/quick-start-guide.html
@@ -4,7 +4,7 @@
<meta charset="utf-8">
<!-- begin _includes/seo.html --><title>Quick-Start Guide - Apache Hudi</title>
-<meta name="description"
content="本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新的Hudi默认存储类型数据集:写时复制。每次写操作之后,我们还将展示如何读取快照和增量读取数据。">
+<meta name="description"
content="本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新Hudi的默认存储类型数据集:写时复制。每次写操作之后,我们还将展示如何读取快照和增量数据。">
<meta property="og:type" content="article">
<meta property="og:locale" content="en_US">
@@ -13,7 +13,7 @@
<meta property="og:url"
content="https://hudi.apache.org/cn/docs/quick-start-guide.html">
- <meta property="og:description"
content="本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新的Hudi默认存储类型数据集:写时复制。每次写操作之后,我们还将展示如何读取快照和增量读取数据。">
+ <meta property="og:description"
content="本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新Hudi的默认存储类型数据集:写时复制。每次写操作之后,我们还将展示如何读取快照和增量数据。">
@@ -346,8 +346,8 @@
</nav>
</aside>
-
<p>本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新的Hudi默认存储类型数据集:
-<a
href="/cn/docs/concepts.html#copy-on-write-storage">写时复制</a>。每次写操作之后,我们还将展示如何读取快照和增量读取数据。</p>
+
<p>本指南通过使用spark-shell简要介绍了Hudi功能。使用Spark数据源,我们将通过代码段展示如何插入和更新Hudi的默认存储类型数据集:
+<a
href="/cn/docs/concepts.html#copy-on-write-storage">写时复制</a>。每次写操作之后,我们还将展示如何读取快照和增量数据。</p>
<h2 id="设置spark-shell">设置spark-shell</h2>
<p>Hudi适用于Spark-2.x版本。您可以按照<a
href="https://spark.apache.org/downloads.html">此处</a>的说明设置spark。