This is an automated email from the ASF dual-hosted git repository.
vinoth pushed a commit to branch asf-site
in repository https://gitbox.apache.org/repos/asf/hudi.git
The following commit(s) were added to refs/heads/asf-site by this push:
new 9d70ca8 Travis CI build asf-site
9d70ca8 is described below
commit 9d70ca82ce8be73974d778f9fc49e657b97ceb20
Author: CI <[email protected]>
AuthorDate: Sun Apr 11 02:31:52 2021 +0000
Travis CI build asf-site
---
content/assets/js/lunr/lunr-store.js | 4 ++--
content/cn/docs/0.7.0-querying_data.html | 2 +-
content/cn/docs/0.8.0-querying_data.html | 13 ++++++++++++-
content/cn/docs/querying_data.html | 13 ++++++++++++-
content/docs/0.7.0-querying_data.html | 2 +-
content/docs/0.8.0-querying_data.html | 2 +-
content/docs/querying_data.html | 2 +-
7 files changed, 30 insertions(+), 8 deletions(-)
diff --git a/content/assets/js/lunr/lunr-store.js
b/content/assets/js/lunr/lunr-store.js
index 8184cca..d73f822 100644
--- a/content/assets/js/lunr/lunr-store.js
+++ b/content/assets/js/lunr/lunr-store.js
@@ -1270,7 +1270,7 @@ var store = [{
"url": "https://hudi.apache.org/docs/0.8.0-writing_data.html",
"teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
"title": "查询 Hudi 数据集",
- "excerpt":"从概念上讲,Hudi物理存储一次数据到DFS上,同时在其上提供三个逻辑视图,如之前所述。 数据集同步到Hive
Metastore后,它将提供由Hudi的自定义输入格式支持的Hive外部表。一旦提供了适当的Hudi捆绑包,
就可以通过Hive、Spark和Presto之类的常用查询引擎来查询数据集。 具体来说,在写入过程中传递了两个由table name命名的Hive表。
例如,如果table name = hudi_tbl,我们得到 hudi_tbl 实现了由 HoodieParquetInputFormat
支持的数据集的读优化视图,从而提供了纯列式数据。 hudi_tbl_rt 实现了由 HoodieParquetRealtimeInputFormat
支持的数据集的实时视图,从而提供了基础数据和日志数据的合并视图。 如概念部分所述,增量处理所需要的
一个关键原语是增量拉取(以从数据集中获取更改流/日志)。您可以增量提取Hudi数据集,这意味着自指定的即时时间起, 您可�
�只获得全部更新和新行。 这与插入更新一起使用,对于构建某 [...]
+ "excerpt":"从概念上讲,Hudi物理存储一次数据到DFS上,同时在其上提供三个逻辑视图,如之前所述。 数据集同步到Hive
Metastore后,它将提供由Hudi的自定义输入格式支持的Hive外部表。一旦提供了适当的Hudi捆绑包,
就可以通过Hive、Spark和Presto之类的常用查询引擎来查询数据集。 具体来说,在写入过程中传递了两个由table name命名的Hive表。
例如,如果table name = hudi_tbl,我们得到 hudi_tbl 实现了由 HoodieParquetInputFormat
支持的数据集的读优化视图,从而提供了纯列式数据。 hudi_tbl_rt 实现了由 HoodieParquetRealtimeInputFormat
支持的数据集的实时视图,从而提供了基础数据和日志数据的合并视图。 如概念部分所述,增量处理所需要的
一个关键原语是增量拉取(以从数据集中获取更改流/日志)。您可以增量提取Hudi数据集,这意味着自指定的即时时间起, 您可�
�只获得全部更新和新行。 这与插入更新一起使用,对于构建某 [...]
"tags": [],
"url": "https://hudi.apache.org/cn/docs/0.8.0-querying_data.html",
"teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
@@ -1500,7 +1500,7 @@ var store = [{
"url": "https://hudi.apache.org/docs/writing_data.html",
"teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
"title": "查询 Hudi 数据集",
- "excerpt":"从概念上讲,Hudi物理存储一次数据到DFS上,同时在其上提供三个逻辑视图,如之前所述。 数据集同步到Hive
Metastore后,它将提供由Hudi的自定义输入格式支持的Hive外部表。一旦提供了适当的Hudi捆绑包,
就可以通过Hive、Spark和Presto之类的常用查询引擎来查询数据集。 具体来说,在写入过程中传递了两个由table name命名的Hive表。
例如,如果table name = hudi_tbl,我们得到 hudi_tbl 实现了由 HoodieParquetInputFormat
支持的数据集的读优化视图,从而提供了纯列式数据。 hudi_tbl_rt 实现了由 HoodieParquetRealtimeInputFormat
支持的数据集的实时视图,从而提供了基础数据和日志数据的合并视图。 如概念部分所述,增量处理所需要的
一个关键原语是增量拉取(以从数据集中获取更改流/日志)。您可以增量提取Hudi数据集,这意味着自指定的即时时间起, 您可�
�只获得全部更新和新行。 这与插入更新一起使用,对于构建某 [...]
+ "excerpt":"从概念上讲,Hudi物理存储一次数据到DFS上,同时在其上提供三个逻辑视图,如之前所述。 数据集同步到Hive
Metastore后,它将提供由Hudi的自定义输入格式支持的Hive外部表。一旦提供了适当的Hudi捆绑包,
就可以通过Hive、Spark和Presto之类的常用查询引擎来查询数据集。 具体来说,在写入过程中传递了两个由table name命名的Hive表。
例如,如果table name = hudi_tbl,我们得到 hudi_tbl 实现了由 HoodieParquetInputFormat
支持的数据集的读优化视图,从而提供了纯列式数据。 hudi_tbl_rt 实现了由 HoodieParquetRealtimeInputFormat
支持的数据集的实时视图,从而提供了基础数据和日志数据的合并视图。 如概念部分所述,增量处理所需要的
一个关键原语是增量拉取(以从数据集中获取更改流/日志)。您可以增量提取Hudi数据集,这意味着自指定的即时时间起, 您可�
�只获得全部更新和新行。 这与插入更新一起使用,对于构建某 [...]
"tags": [],
"url": "https://hudi.apache.org/cn/docs/querying_data.html",
"teaser":"https://hudi.apache.org/assets/images/500x300.png"},{
diff --git a/content/cn/docs/0.7.0-querying_data.html
b/content/cn/docs/0.7.0-querying_data.html
index 95c55dd..0b3e195 100644
--- a/content/cn/docs/0.7.0-querying_data.html
+++ b/content/cn/docs/0.7.0-querying_data.html
@@ -473,7 +473,7 @@
<tr>
<td><strong>Spark Datasource</strong></td>
<td>Y</td>
- <td>N</td>
+ <td>Y</td>
<td>Y</td>
</tr>
<tr>
diff --git a/content/cn/docs/0.8.0-querying_data.html
b/content/cn/docs/0.8.0-querying_data.html
index b52951d..0a66d1b 100644
--- a/content/cn/docs/0.8.0-querying_data.html
+++ b/content/cn/docs/0.8.0-querying_data.html
@@ -434,6 +434,11 @@
<td>Y</td>
</tr>
<tr>
+ <td><strong>Flink SQL</strong></td>
+ <td>Y</td>
+ <td>N</td>
+ </tr>
+ <tr>
<td><strong>PrestoDB</strong></td>
<td>Y</td>
<td>N</td>
@@ -473,7 +478,13 @@
<tr>
<td><strong>Spark Datasource</strong></td>
<td>Y</td>
- <td>N</td>
+ <td>Y</td>
+ <td>Y</td>
+ </tr>
+ <tr>
+ <td><strong>Flink SQL</strong></td>
+ <td>Y</td>
+ <td>Y</td>
<td>Y</td>
</tr>
<tr>
diff --git a/content/cn/docs/querying_data.html
b/content/cn/docs/querying_data.html
index 2cfa235..e831976 100644
--- a/content/cn/docs/querying_data.html
+++ b/content/cn/docs/querying_data.html
@@ -434,6 +434,11 @@
<td>Y</td>
</tr>
<tr>
+ <td><strong>Flink SQL</strong></td>
+ <td>Y</td>
+ <td>N</td>
+ </tr>
+ <tr>
<td><strong>PrestoDB</strong></td>
<td>Y</td>
<td>N</td>
@@ -473,7 +478,13 @@
<tr>
<td><strong>Spark Datasource</strong></td>
<td>Y</td>
- <td>N</td>
+ <td>Y</td>
+ <td>Y</td>
+ </tr>
+ <tr>
+ <td><strong>Flink SQL</strong></td>
+ <td>Y</td>
+ <td>Y</td>
<td>Y</td>
</tr>
<tr>
diff --git a/content/docs/0.7.0-querying_data.html
b/content/docs/0.7.0-querying_data.html
index ac46fbf..9fb920d 100644
--- a/content/docs/0.7.0-querying_data.html
+++ b/content/docs/0.7.0-querying_data.html
@@ -458,7 +458,7 @@ with special configurations that indicates to query
planning that only increment
<tr>
<td><strong>Spark Datasource</strong></td>
<td>Y</td>
- <td>N</td>
+ <td>Y</td>
<td>Y</td>
</tr>
<tr>
diff --git a/content/docs/0.8.0-querying_data.html
b/content/docs/0.8.0-querying_data.html
index 8af4ad0..ec884f1 100644
--- a/content/docs/0.8.0-querying_data.html
+++ b/content/docs/0.8.0-querying_data.html
@@ -464,7 +464,7 @@ with special configurations that indicates to query
planning that only increment
<tr>
<td><strong>Spark Datasource</strong></td>
<td>Y</td>
- <td>N</td>
+ <td>Y</td>
<td>Y</td>
</tr>
<tr>
diff --git a/content/docs/querying_data.html b/content/docs/querying_data.html
index 18f5c59..5a01751 100644
--- a/content/docs/querying_data.html
+++ b/content/docs/querying_data.html
@@ -486,7 +486,7 @@ with special configurations that indicates to query
planning that only increment
<tr>
<td><strong>Spark Datasource</strong></td>
<td>Y</td>
- <td>N</td>
+ <td>Y</td>
<td>Y</td>
</tr>
<tr>