Hi,各位好!
目前遇到一个问题,在使用 FLink -1.11.0 消费 Kafka 数据后,使用 Streaming File Sink 的
BucketAssigner 的分桶策略 sink 到 hdfs ,默认没有生成 _SUCCESS 标记文件。
我在配置中新增了
val hadoopConf = new Configuration()
hadoopConf.set(FileOutputCommitter.SUCCESSFUL_JOB_OUTPUT_DIR_MARKER, "true”)
但是输出目录里,还是没有 _SUCCESS
record task
这些有比较普遍共识的还有商讨空间,像 transformation "operator chain"
强行翻译很可能是懂的人本来就看得懂,不懂的人看了还是不懂。现在不翻译在有通译之后可以改,先根据个人喜好翻译了以后就不好改了。
一点拙见。
Best,
tison.
highfei2011 highfei2...@126.com 于2019年7月18日周四 下午11:35写道:
Hi 各位,
晚上好!
以下名词在翻译 Glossary 章节时,有必要翻译成中文吗?名词列表如下:
Flink Application Cluste
Hi 各位,
晚上好!
以下名词在翻译 Glossary 章节时,有必要翻译成中文吗?名词列表如下:
Flink Application Cluster
Flink Cluster
Event
ExecutionGraph
Function
Instance
Flink Job
JobGraph
Flink JobManager
Logical Graph
Managed State
Flink Master
Operator
Operator Chain
Partition
Physical Graph