This is an automated email from the ASF dual-hosted git repository.

vinoth pushed a commit to branch asf-site
in repository https://gitbox.apache.org/repos/asf/hudi.git


The following commit(s) were added to refs/heads/asf-site by this push:
     new 9d70ca8  Travis CI build asf-site
9d70ca8 is described below

commit 9d70ca82ce8be73974d778f9fc49e657b97ceb20
Author: CI <[email protected]>
AuthorDate: Sun Apr 11 02:31:52 2021 +0000

    Travis CI build asf-site
---
 content/assets/js/lunr/lunr-store.js     |  4 ++--
 content/cn/docs/0.7.0-querying_data.html |  2 +-
 content/cn/docs/0.8.0-querying_data.html | 13 ++++++++++++-
 content/cn/docs/querying_data.html       | 13 ++++++++++++-
 content/docs/0.7.0-querying_data.html    |  2 +-
 content/docs/0.8.0-querying_data.html    |  2 +-
 content/docs/querying_data.html          |  2 +-
 7 files changed, 30 insertions(+), 8 deletions(-)

diff --git a/content/assets/js/lunr/lunr-store.js 
b/content/assets/js/lunr/lunr-store.js
index 8184cca..d73f822 100644
--- a/content/assets/js/lunr/lunr-store.js
+++ b/content/assets/js/lunr/lunr-store.js
@@ -1270,7 +1270,7 @@ var store = [{
         "url": "https://hudi.apache.org/docs/0.8.0-writing_data.html";,
         "teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
         "title": "查询 Hudi 数据集",
-        "excerpt":"从概念上讲,Hudi物理存储一次数据到DFS上,同时在其上提供三个逻辑视图,如之前所述。 数据集同步到Hive 
Metastore后,它将提供由Hudi的自定义输入格式支持的Hive外部表。一旦提供了适当的Hudi捆绑包, 
就可以通过Hive、Spark和Presto之类的常用查询引擎来查询数据集。 具体来说,在写入过程中传递了两个由table name命名的Hive表。 
例如,如果table name = hudi_tbl,我们得到 hudi_tbl 实现了由 HoodieParquetInputFormat 
支持的数据集的读优化视图,从而提供了纯列式数据。 hudi_tbl_rt 实现了由 HoodieParquetRealtimeInputFormat 
支持的数据集的实时视图,从而提供了基础数据和日志数据的合并视图。 如概念部分所述,增量处理所需要的 
一个关键原语是增量拉取(以从数据集中获取更改流/日志)。您可以增量提取Hudi数据集,这意味着自指定的即时时间起, 您可�
 �只获得全部更新和新行。 这与插入更新一起使用,对于构建某 [...]
+        "excerpt":"从概念上讲,Hudi物理存储一次数据到DFS上,同时在其上提供三个逻辑视图,如之前所述。 数据集同步到Hive 
Metastore后,它将提供由Hudi的自定义输入格式支持的Hive外部表。一旦提供了适当的Hudi捆绑包, 
就可以通过Hive、Spark和Presto之类的常用查询引擎来查询数据集。 具体来说,在写入过程中传递了两个由table name命名的Hive表。 
例如,如果table name = hudi_tbl,我们得到 hudi_tbl 实现了由 HoodieParquetInputFormat 
支持的数据集的读优化视图,从而提供了纯列式数据。 hudi_tbl_rt 实现了由 HoodieParquetRealtimeInputFormat 
支持的数据集的实时视图,从而提供了基础数据和日志数据的合并视图。 如概念部分所述,增量处理所需要的 
一个关键原语是增量拉取(以从数据集中获取更改流/日志)。您可以增量提取Hudi数据集,这意味着自指定的即时时间起, 您可�
 �只获得全部更新和新行。 这与插入更新一起使用,对于构建某 [...]
         "tags": [],
         "url": "https://hudi.apache.org/cn/docs/0.8.0-querying_data.html";,
         "teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
@@ -1500,7 +1500,7 @@ var store = [{
         "url": "https://hudi.apache.org/docs/writing_data.html";,
         "teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
         "title": "查询 Hudi 数据集",
-        "excerpt":"从概念上讲,Hudi物理存储一次数据到DFS上,同时在其上提供三个逻辑视图,如之前所述。 数据集同步到Hive 
Metastore后,它将提供由Hudi的自定义输入格式支持的Hive外部表。一旦提供了适当的Hudi捆绑包, 
就可以通过Hive、Spark和Presto之类的常用查询引擎来查询数据集。 具体来说,在写入过程中传递了两个由table name命名的Hive表。 
例如,如果table name = hudi_tbl,我们得到 hudi_tbl 实现了由 HoodieParquetInputFormat 
支持的数据集的读优化视图,从而提供了纯列式数据。 hudi_tbl_rt 实现了由 HoodieParquetRealtimeInputFormat 
支持的数据集的实时视图,从而提供了基础数据和日志数据的合并视图。 如概念部分所述,增量处理所需要的 
一个关键原语是增量拉取(以从数据集中获取更改流/日志)。您可以增量提取Hudi数据集,这意味着自指定的即时时间起, 您可�
 �只获得全部更新和新行。 这与插入更新一起使用,对于构建某 [...]
+        "excerpt":"从概念上讲,Hudi物理存储一次数据到DFS上,同时在其上提供三个逻辑视图,如之前所述。 数据集同步到Hive 
Metastore后,它将提供由Hudi的自定义输入格式支持的Hive外部表。一旦提供了适当的Hudi捆绑包, 
就可以通过Hive、Spark和Presto之类的常用查询引擎来查询数据集。 具体来说,在写入过程中传递了两个由table name命名的Hive表。 
例如,如果table name = hudi_tbl,我们得到 hudi_tbl 实现了由 HoodieParquetInputFormat 
支持的数据集的读优化视图,从而提供了纯列式数据。 hudi_tbl_rt 实现了由 HoodieParquetRealtimeInputFormat 
支持的数据集的实时视图,从而提供了基础数据和日志数据的合并视图。 如概念部分所述,增量处理所需要的 
一个关键原语是增量拉取(以从数据集中获取更改流/日志)。您可以增量提取Hudi数据集,这意味着自指定的即时时间起, 您可�
 �只获得全部更新和新行。 这与插入更新一起使用,对于构建某 [...]
         "tags": [],
         "url": "https://hudi.apache.org/cn/docs/querying_data.html";,
         "teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
diff --git a/content/cn/docs/0.7.0-querying_data.html 
b/content/cn/docs/0.7.0-querying_data.html
index 95c55dd..0b3e195 100644
--- a/content/cn/docs/0.7.0-querying_data.html
+++ b/content/cn/docs/0.7.0-querying_data.html
@@ -473,7 +473,7 @@
     <tr>
       <td><strong>Spark Datasource</strong></td>
       <td>Y</td>
-      <td>N</td>
+      <td>Y</td>
       <td>Y</td>
     </tr>
     <tr>
diff --git a/content/cn/docs/0.8.0-querying_data.html 
b/content/cn/docs/0.8.0-querying_data.html
index b52951d..0a66d1b 100644
--- a/content/cn/docs/0.8.0-querying_data.html
+++ b/content/cn/docs/0.8.0-querying_data.html
@@ -434,6 +434,11 @@
       <td>Y</td>
     </tr>
     <tr>
+      <td><strong>Flink SQL</strong></td>
+      <td>Y</td>
+      <td>N</td>
+    </tr>
+    <tr>
       <td><strong>PrestoDB</strong></td>
       <td>Y</td>
       <td>N</td>
@@ -473,7 +478,13 @@
     <tr>
       <td><strong>Spark Datasource</strong></td>
       <td>Y</td>
-      <td>N</td>
+      <td>Y</td>
+      <td>Y</td>
+    </tr>
+    <tr>
+      <td><strong>Flink SQL</strong></td>
+      <td>Y</td>
+      <td>Y</td>
       <td>Y</td>
     </tr>
     <tr>
diff --git a/content/cn/docs/querying_data.html 
b/content/cn/docs/querying_data.html
index 2cfa235..e831976 100644
--- a/content/cn/docs/querying_data.html
+++ b/content/cn/docs/querying_data.html
@@ -434,6 +434,11 @@
       <td>Y</td>
     </tr>
     <tr>
+      <td><strong>Flink SQL</strong></td>
+      <td>Y</td>
+      <td>N</td>
+    </tr>
+    <tr>
       <td><strong>PrestoDB</strong></td>
       <td>Y</td>
       <td>N</td>
@@ -473,7 +478,13 @@
     <tr>
       <td><strong>Spark Datasource</strong></td>
       <td>Y</td>
-      <td>N</td>
+      <td>Y</td>
+      <td>Y</td>
+    </tr>
+    <tr>
+      <td><strong>Flink SQL</strong></td>
+      <td>Y</td>
+      <td>Y</td>
       <td>Y</td>
     </tr>
     <tr>
diff --git a/content/docs/0.7.0-querying_data.html 
b/content/docs/0.7.0-querying_data.html
index ac46fbf..9fb920d 100644
--- a/content/docs/0.7.0-querying_data.html
+++ b/content/docs/0.7.0-querying_data.html
@@ -458,7 +458,7 @@ with special configurations that indicates to query 
planning that only increment
     <tr>
       <td><strong>Spark Datasource</strong></td>
       <td>Y</td>
-      <td>N</td>
+      <td>Y</td>
       <td>Y</td>
     </tr>
     <tr>
diff --git a/content/docs/0.8.0-querying_data.html 
b/content/docs/0.8.0-querying_data.html
index 8af4ad0..ec884f1 100644
--- a/content/docs/0.8.0-querying_data.html
+++ b/content/docs/0.8.0-querying_data.html
@@ -464,7 +464,7 @@ with special configurations that indicates to query 
planning that only increment
     <tr>
       <td><strong>Spark Datasource</strong></td>
       <td>Y</td>
-      <td>N</td>
+      <td>Y</td>
       <td>Y</td>
     </tr>
     <tr>
diff --git a/content/docs/querying_data.html b/content/docs/querying_data.html
index 18f5c59..5a01751 100644
--- a/content/docs/querying_data.html
+++ b/content/docs/querying_data.html
@@ -486,7 +486,7 @@ with special configurations that indicates to query 
planning that only increment
     <tr>
       <td><strong>Spark Datasource</strong></td>
       <td>Y</td>
-      <td>N</td>
+      <td>Y</td>
       <td>Y</td>
     </tr>
     <tr>

Reply via email to