[GitHub] [flink] wydhcws commented on a change in pull request #12380: [FLINK-17581][docs-zh] Update translation of S3 documentation

2020-05-29 Thread GitBox


wydhcws commented on a change in pull request #12380:
URL: https://github.com/apache/flink/pull/12380#discussion_r432635762



##
File path: docs/ops/filesystems/s3.zh.md
##
@@ -58,11 +58,15 @@ env.setStateBackend(new 
FsStateBackend("s3:///"));
 Flink 提供两种文件系统用来与 S3 交互:`flink-s3-fs-presto` 和 
`flink-s3-fs-hadoop`。两种实现都是独立的且没有依赖项,因此使用时无需将 Hadoop 添加至 classpath。
 
   - `flink-s3-fs-presto`,通过 *s3://* 和 *s3p://* 两种 scheme 使用,基于 [Presto 
project](https://prestodb.io/)。
-  可以使用与[配置 Presto 
文件系统](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)相同的方法进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。推荐使用 Presto 文件系统来在 S3 中建立 checkpoint。
+  可以使用[和 Presto 
文件系统相同的配置项](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。如果要在 S3 中使用 checkpoint,推荐使用 Presto S3 文件系统。
 
   - `flink-s3-fs-hadoop`,通过 *s3://* 和 *s3a://* 两种 scheme 使用, 基于 [Hadoop 
Project](https://hadoop.apache.org/)。
-  文件系统可以使用与 [Hadoop S3A 
完全相同的配置方法](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。它是唯一一个支持 [StreamingFileSink]({{ 
site.baseurl}}/zh/dev/connectors/streamfile_sink.html) 的文件系统。
-
+  本文件系统可以使用类似 [Hadoop S3A 
的配置项](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。
+  
+ 例如,Hadoop 有 `fs.s3a.connection.maximum` 的配置选项。 如果你想在 Flink 
程序中改变该配置的值,你需要将配置 `s3.connection.maximum: xyz` 添加到 `flink-conf.yaml` 文件中。Flink 
会内部将其转换成配置 `fs.s3a.connection.maximum`。 而无需通过 Hadoop 的XML 配置文件来传递参数。
+  
+另外,它是唯一支持 [StreamingFileSink]({{ 
site.baseurl}}/zh/dev/connectors/streamfile_sink.html) 的S3 文件系统。

Review comment:
   Thanks for your patience , this problem has been fixed





This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

For queries about this service, please contact Infrastructure at:
us...@infra.apache.org




[GitHub] [flink] wydhcws commented on a change in pull request #12380: [FLINK-17581][docs-zh] Update translation of S3 documentation

2020-05-29 Thread GitBox


wydhcws commented on a change in pull request #12380:
URL: https://github.com/apache/flink/pull/12380#discussion_r432635557



##
File path: docs/ops/filesystems/s3.zh.md
##
@@ -58,11 +58,15 @@ env.setStateBackend(new 
FsStateBackend("s3:///"));
 Flink 提供两种文件系统用来与 S3 交互:`flink-s3-fs-presto` 和 
`flink-s3-fs-hadoop`。两种实现都是独立的且没有依赖项,因此使用时无需将 Hadoop 添加至 classpath。
 
   - `flink-s3-fs-presto`,通过 *s3://* 和 *s3p://* 两种 scheme 使用,基于 [Presto 
project](https://prestodb.io/)。
-  可以使用与[配置 Presto 
文件系统](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)相同的方法进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。推荐使用 Presto 文件系统来在 S3 中建立 checkpoint。
+  可以使用[和 Presto 
文件系统相同的配置项](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。如果要在 S3 中使用 checkpoint,推荐使用 Presto S3 文件系统。
 
   - `flink-s3-fs-hadoop`,通过 *s3://* 和 *s3a://* 两种 scheme 使用, 基于 [Hadoop 
Project](https://hadoop.apache.org/)。
-  文件系统可以使用与 [Hadoop S3A 
完全相同的配置方法](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。它是唯一一个支持 [StreamingFileSink]({{ 
site.baseurl}}/zh/dev/connectors/streamfile_sink.html) 的文件系统。
-
+  本文件系统可以使用类似 [Hadoop S3A 
的配置项](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。
+  
+ 例如,Hadoop 有 `fs.s3a.connection.maximum` 的配置选项。 如果你想在 Flink 
程序中改变该配置的值,你需要将配置 `s3.connection.maximum: xyz` 添加到 `flink-conf.yaml` 文件中。Flink 
会内部将其转换成配置 `fs.s3a.connection.maximum`。 而无需通过 Hadoop 的XML 配置文件来传递参数。

Review comment:
   Thanks for your patience , this problem has been fixed





This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

For queries about this service, please contact Infrastructure at:
us...@infra.apache.org




[GitHub] [flink] wydhcws commented on a change in pull request #12380: [FLINK-17581][docs-zh] Update translation of S3 documentation

2020-05-28 Thread GitBox


wydhcws commented on a change in pull request #12380:
URL: https://github.com/apache/flink/pull/12380#discussion_r431990516



##
File path: docs/ops/filesystems/s3.zh.md
##
@@ -58,11 +58,15 @@ env.setStateBackend(new 
FsStateBackend("s3:///"));
 Flink 提供两种文件系统用来与 S3 交互:`flink-s3-fs-presto` 和 
`flink-s3-fs-hadoop`。两种实现都是独立的且没有依赖项,因此使用时无需将 Hadoop 添加至 classpath。
 
   - `flink-s3-fs-presto`,通过 *s3://* 和 *s3p://* 两种 scheme 使用,基于 [Presto 
project](https://prestodb.io/)。
-  可以使用与[配置 Presto 
文件系统](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)相同的方法进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。推荐使用 Presto 文件系统来在 S3 中建立 checkpoint。
+  可以使用[和 Presto 
文件系统相同的配置项](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。如果要在 S3 中建立 checkpoint,推荐使用 Presto S3 文件系统。
 
   - `flink-s3-fs-hadoop`,通过 *s3://* 和 *s3a://* 两种 scheme 使用, 基于 [Hadoop 
Project](https://hadoop.apache.org/)。
-  文件系统可以使用与 [Hadoop S3A 
完全相同的配置方法](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。它是唯一一个支持 [StreamingFileSink]({{ 
site.baseurl}}/zh/dev/connectors/streamfile_sink.html) 的文件系统。
-
+  本文件系统可以使用类似 [Hadoop S3A 
的配置项](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。
+  
+ 例如, Hadoop 有 `fs.s3a.connection.maximum` 的配置选项. 如果你想在 Flink 程序中改变该配置的值, 
你需要将配置 `s3.connection.maximum: xyz` 添加到 `flink-conf.yaml` 文件中. Flink 会内部将其转换成配置 
`fs.s3a.connection.maximum`. 而无需通过 Hadoop 的XML 配置文件来传递参数.

Review comment:
   > 这里建议都使用中文标点符号
   
   谢谢指出问题 已经修改
   
   





This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

For queries about this service, please contact Infrastructure at:
us...@infra.apache.org




[GitHub] [flink] wydhcws commented on a change in pull request #12380: [FLINK-17581][docs-zh] Update translation of S3 documentation

2020-05-28 Thread GitBox


wydhcws commented on a change in pull request #12380:
URL: https://github.com/apache/flink/pull/12380#discussion_r431989323



##
File path: docs/ops/filesystems/s3.zh.md
##
@@ -58,11 +58,15 @@ env.setStateBackend(new 
FsStateBackend("s3:///"));
 Flink 提供两种文件系统用来与 S3 交互:`flink-s3-fs-presto` 和 
`flink-s3-fs-hadoop`。两种实现都是独立的且没有依赖项,因此使用时无需将 Hadoop 添加至 classpath。
 
   - `flink-s3-fs-presto`,通过 *s3://* 和 *s3p://* 两种 scheme 使用,基于 [Presto 
project](https://prestodb.io/)。
-  可以使用与[配置 Presto 
文件系统](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)相同的方法进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。推荐使用 Presto 文件系统来在 S3 中建立 checkpoint。
+  可以使用[和 Presto 
文件系统相同的配置项](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。如果要在 S3 中建立 checkpoint,推荐使用 Presto S3 文件系统。
 
   - `flink-s3-fs-hadoop`,通过 *s3://* 和 *s3a://* 两种 scheme 使用, 基于 [Hadoop 
Project](https://hadoop.apache.org/)。
-  文件系统可以使用与 [Hadoop S3A 
完全相同的配置方法](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。它是唯一一个支持 [StreamingFileSink]({{ 
site.baseurl}}/zh/dev/connectors/streamfile_sink.html) 的文件系统。
-
+  本文件系统可以使用类似 [Hadoop S3A 
的配置项](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。
+  
+ 例如, Hadoop 有 `fs.s3a.connection.maximum` 的配置选项. 如果你想在 Flink 程序中改变该配置的值, 
你需要将配置 `s3.connection.maximum: xyz` 添加到 `flink-conf.yaml` 文件中. Flink 会内部将其转换成配置 
`fs.s3a.connection.maximum`. 而无需通过 Hadoop 的XML 配置文件来传递参数.

Review comment:
   > 这里建议都使用中文标点符号
   谢谢指出问题 已经修改
   
   





This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

For queries about this service, please contact Infrastructure at:
us...@infra.apache.org




[GitHub] [flink] wydhcws commented on a change in pull request #12380: [FLINK-17581][docs-zh] Update translation of S3 documentation

2020-05-28 Thread GitBox


wydhcws commented on a change in pull request #12380:
URL: https://github.com/apache/flink/pull/12380#discussion_r431988945



##
File path: docs/ops/filesystems/s3.zh.md
##
@@ -58,11 +58,15 @@ env.setStateBackend(new 
FsStateBackend("s3:///"));
 Flink 提供两种文件系统用来与 S3 交互:`flink-s3-fs-presto` 和 
`flink-s3-fs-hadoop`。两种实现都是独立的且没有依赖项,因此使用时无需将 Hadoop 添加至 classpath。
 
   - `flink-s3-fs-presto`,通过 *s3://* 和 *s3p://* 两种 scheme 使用,基于 [Presto 
project](https://prestodb.io/)。
-  可以使用与[配置 Presto 
文件系统](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)相同的方法进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。推荐使用 Presto 文件系统来在 S3 中建立 checkpoint。
+  可以使用[和 Presto 
文件系统相同的配置项](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。如果要在 S3 中建立 checkpoint,推荐使用 Presto S3 文件系统。
 
   - `flink-s3-fs-hadoop`,通过 *s3://* 和 *s3a://* 两种 scheme 使用, 基于 [Hadoop 
Project](https://hadoop.apache.org/)。
-  文件系统可以使用与 [Hadoop S3A 
完全相同的配置方法](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。它是唯一一个支持 [StreamingFileSink]({{ 
site.baseurl}}/zh/dev/connectors/streamfile_sink.html) 的文件系统。
-
+  本文件系统可以使用类似 [Hadoop S3A 
的配置项](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。
+  
+ 例如, Hadoop 有 `fs.s3a.connection.maximum` 的配置选项. 如果你想在 Flink 程序中改变该配置的值, 
你需要将配置 `s3.connection.maximum: xyz` 添加到 `flink-conf.yaml` 文件中. Flink 会内部将其转换成配置 
`fs.s3a.connection.maximum`. 而无需通过 Hadoop 的XML 配置文件来传递参数.

Review comment:
   > 这里建议都使用中文标点符号
   
   
   
   > 这里建议都使用中文标点符号
   
   谢谢指出问题 已经修改
   
   
   





This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

For queries about this service, please contact Infrastructure at:
us...@infra.apache.org




[GitHub] [flink] wydhcws commented on a change in pull request #12380: [FLINK-17581][docs-zh] Update translation of S3 documentation

2020-05-28 Thread GitBox


wydhcws commented on a change in pull request #12380:
URL: https://github.com/apache/flink/pull/12380#discussion_r431988297



##
File path: docs/ops/filesystems/s3.zh.md
##
@@ -58,11 +58,15 @@ env.setStateBackend(new 
FsStateBackend("s3:///"));
 Flink 提供两种文件系统用来与 S3 交互:`flink-s3-fs-presto` 和 
`flink-s3-fs-hadoop`。两种实现都是独立的且没有依赖项,因此使用时无需将 Hadoop 添加至 classpath。
 
   - `flink-s3-fs-presto`,通过 *s3://* 和 *s3p://* 两种 scheme 使用,基于 [Presto 
project](https://prestodb.io/)。
-  可以使用与[配置 Presto 
文件系统](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)相同的方法进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。推荐使用 Presto 文件系统来在 S3 中建立 checkpoint。
+  可以使用[和 Presto 
文件系统相同的配置项](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。如果要在 S3 中建立 checkpoint,推荐使用 Presto S3 文件系统。

Review comment:
   谢谢指出问题 已经修改

##
File path: docs/ops/filesystems/s3.zh.md
##
@@ -58,11 +58,15 @@ env.setStateBackend(new 
FsStateBackend("s3:///"));
 Flink 提供两种文件系统用来与 S3 交互:`flink-s3-fs-presto` 和 
`flink-s3-fs-hadoop`。两种实现都是独立的且没有依赖项,因此使用时无需将 Hadoop 添加至 classpath。
 
   - `flink-s3-fs-presto`,通过 *s3://* 和 *s3p://* 两种 scheme 使用,基于 [Presto 
project](https://prestodb.io/)。
-  可以使用与[配置 Presto 
文件系统](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)相同的方法进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。推荐使用 Presto 文件系统来在 S3 中建立 checkpoint。
+  可以使用[和 Presto 
文件系统相同的配置项](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。如果要在 S3 中建立 checkpoint,推荐使用 Presto S3 文件系统。
 
   - `flink-s3-fs-hadoop`,通过 *s3://* 和 *s3a://* 两种 scheme 使用, 基于 [Hadoop 
Project](https://hadoop.apache.org/)。
-  文件系统可以使用与 [Hadoop S3A 
完全相同的配置方法](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。它是唯一一个支持 [StreamingFileSink]({{ 
site.baseurl}}/zh/dev/connectors/streamfile_sink.html) 的文件系统。
-
+  本文件系统可以使用类似 [Hadoop S3A 
的配置项](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。
+  
+ 例如, Hadoop 有 `fs.s3a.connection.maximum` 的配置选项. 如果你想在 Flink 程序中改变该配置的值, 
你需要将配置 `s3.connection.maximum: xyz` 添加到 `flink-conf.yaml` 文件中. Flink 会内部将其转换成配置 
`fs.s3a.connection.maximum`. 而无需通过 Hadoop 的XML 配置文件来传递参数.

Review comment:
   谢谢指出问题 已经修改

##
File path: docs/ops/filesystems/s3.zh.md
##
@@ -58,11 +58,15 @@ env.setStateBackend(new 
FsStateBackend("s3:///"));
 Flink 提供两种文件系统用来与 S3 交互:`flink-s3-fs-presto` 和 
`flink-s3-fs-hadoop`。两种实现都是独立的且没有依赖项,因此使用时无需将 Hadoop 添加至 classpath。
 
   - `flink-s3-fs-presto`,通过 *s3://* 和 *s3p://* 两种 scheme 使用,基于 [Presto 
project](https://prestodb.io/)。
-  可以使用与[配置 Presto 
文件系统](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)相同的方法进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。推荐使用 Presto 文件系统来在 S3 中建立 checkpoint。
+  可以使用[和 Presto 
文件系统相同的配置项](https://prestodb.io/docs/0.187/connector/hive.html#amazon-s3-configuration)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。如果要在 S3 中建立 checkpoint,推荐使用 Presto S3 文件系统。
 
   - `flink-s3-fs-hadoop`,通过 *s3://* 和 *s3a://* 两种 scheme 使用, 基于 [Hadoop 
Project](https://hadoop.apache.org/)。
-  文件系统可以使用与 [Hadoop S3A 
完全相同的配置方法](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,即将配置添加到
 `flink-conf.yaml` 文件中。它是唯一一个支持 [StreamingFileSink]({{ 
site.baseurl}}/zh/dev/connectors/streamfile_sink.html) 的文件系统。
-
+  本文件系统可以使用类似 [Hadoop S3A 
的配置项](https://hadoop.apache.org/docs/stable/hadoop-aws/tools/hadoop-aws/index.html#S3A)进行配置,方式为将配置添加到
 `flink-conf.yaml` 文件中。
+  
+ 例如, Hadoop 有 `fs.s3a.connection.maximum` 的配置选项. 如果你想在 Flink 程序中改变该配置的值, 
你需要将配置 `s3.connection.maximum: xyz` 添加到 `flink-conf.yaml` 文件中. Flink 会内部将其转换成配置 
`fs.s3a.connection.maximum`. 而无需通过 Hadoop 的XML 配置文件来传递参数.
+  
+另外,它是唯一支持 [StreamingFileSink]({{ 
site.baseurl}}/dev/connectors/streamfile_sink.html)的S3 文件系统.

Review comment:
   谢谢指出问题 已经修改





This is an automated message from the Apache Git Service.
To respond to the message, please log on to GitHub and use the
URL above to go to the specific comment.

For queries about this service, please contact Infrastructure at:
us...@infra.apache.org