Re: pyflink 和 add_jars 的 add_classpaths 路径。

2022-07-31 文章 Dian Fu
1)尽量用 fat jar,比如 flink-sql-connector-kafka-1.15.0.jar
2)本地运行的话,是mini-cluster方式,执行Flink作业的时候才启动JM/TM,不需要提前部署 Flink。

On Thu, Jul 28, 2022 at 10:08 AM yidan zhao  wrote:

> 我是本地直接ide内run。
>
> Weihua Hu  于2022年7月27日周三 22:10写道:
> >
> > Hi, 你是怎么提交的任务呢?是提交到远端的 session cluster 上吗?有其他的相关日志吗?
> >
> > Best,
> > Weihua
> >
> >
> > On Wed, Jul 27, 2022 at 5:36 PM yidan zhao  wrote:
> >
> > > 而且pyflink既然打包了flink的完整包,那么真正部署运行的时候是用这个呢?还是需要执行的机器上单独部署一个flink呢?
> > >
> > > yidan zhao  于2022年7月27日周三 17:34写道:
> > > >
> > > > 我将这3个jar放到pyflink的lib下则是可以的。通过 add_jar 方式给出是不可以的。有人知道原因吗。
> > > >
> > > > yidan zhao  于2022年7月27日周三 10:40写道:
> > > > >
> > > > > pyflink情况 flink-sql-connector-kafka-1.15.0.jar 可以。
> > > > > 但 flink-connector-base-1.15.0.jar +
> flink-connector-kafka-1.15.0.jar +
> > > > > kafka-clients-2.8.1.jar 却报:
> > > > > py4j.protocol.Py4JError:
> > > > > org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer does
> > > > > not exist in the JVM
> > > > >
> > > > > Weihua Hu  于2022年7月26日周二 21:21写道:
> > > > > >
> > > > > > 最终会放到 pipeline.jars 配置中,在提交作业时上传到 blobServer
> > > > > >
> > > > > > Best,
> > > > > > Weihua
> > > > > >
> > > > > >
> > > > > > On Tue, Jul 26, 2022 at 5:40 PM yidan zhao 
> > > wrote:
> > > > > >
> > > > > > > 如题,我看注释和文档。
> > > > > > > add_jars 是添加要upload到cluster的jar,那么上传到什么路径呢?
> > > > > > >
> > >
>


Re: pyflink 和 add_jars 的 add_classpaths 路径。

2022-07-27 文章 yidan zhao
我是本地直接ide内run。

Weihua Hu  于2022年7月27日周三 22:10写道:
>
> Hi, 你是怎么提交的任务呢?是提交到远端的 session cluster 上吗?有其他的相关日志吗?
>
> Best,
> Weihua
>
>
> On Wed, Jul 27, 2022 at 5:36 PM yidan zhao  wrote:
>
> > 而且pyflink既然打包了flink的完整包,那么真正部署运行的时候是用这个呢?还是需要执行的机器上单独部署一个flink呢?
> >
> > yidan zhao  于2022年7月27日周三 17:34写道:
> > >
> > > 我将这3个jar放到pyflink的lib下则是可以的。通过 add_jar 方式给出是不可以的。有人知道原因吗。
> > >
> > > yidan zhao  于2022年7月27日周三 10:40写道:
> > > >
> > > > pyflink情况 flink-sql-connector-kafka-1.15.0.jar 可以。
> > > > 但 flink-connector-base-1.15.0.jar + flink-connector-kafka-1.15.0.jar +
> > > > kafka-clients-2.8.1.jar 却报:
> > > > py4j.protocol.Py4JError:
> > > > org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer does
> > > > not exist in the JVM
> > > >
> > > > Weihua Hu  于2022年7月26日周二 21:21写道:
> > > > >
> > > > > 最终会放到 pipeline.jars 配置中,在提交作业时上传到 blobServer
> > > > >
> > > > > Best,
> > > > > Weihua
> > > > >
> > > > >
> > > > > On Tue, Jul 26, 2022 at 5:40 PM yidan zhao 
> > wrote:
> > > > >
> > > > > > 如题,我看注释和文档。
> > > > > > add_jars 是添加要upload到cluster的jar,那么上传到什么路径呢?
> > > > > >
> >


Re: pyflink 和 add_jars 的 add_classpaths 路径。

2022-07-27 文章 Weihua Hu
Hi, 你是怎么提交的任务呢?是提交到远端的 session cluster 上吗?有其他的相关日志吗?

Best,
Weihua


On Wed, Jul 27, 2022 at 5:36 PM yidan zhao  wrote:

> 而且pyflink既然打包了flink的完整包,那么真正部署运行的时候是用这个呢?还是需要执行的机器上单独部署一个flink呢?
>
> yidan zhao  于2022年7月27日周三 17:34写道:
> >
> > 我将这3个jar放到pyflink的lib下则是可以的。通过 add_jar 方式给出是不可以的。有人知道原因吗。
> >
> > yidan zhao  于2022年7月27日周三 10:40写道:
> > >
> > > pyflink情况 flink-sql-connector-kafka-1.15.0.jar 可以。
> > > 但 flink-connector-base-1.15.0.jar + flink-connector-kafka-1.15.0.jar +
> > > kafka-clients-2.8.1.jar 却报:
> > > py4j.protocol.Py4JError:
> > > org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer does
> > > not exist in the JVM
> > >
> > > Weihua Hu  于2022年7月26日周二 21:21写道:
> > > >
> > > > 最终会放到 pipeline.jars 配置中,在提交作业时上传到 blobServer
> > > >
> > > > Best,
> > > > Weihua
> > > >
> > > >
> > > > On Tue, Jul 26, 2022 at 5:40 PM yidan zhao 
> wrote:
> > > >
> > > > > 如题,我看注释和文档。
> > > > > add_jars 是添加要upload到cluster的jar,那么上传到什么路径呢?
> > > > >
>


Re: pyflink 和 add_jars 的 add_classpaths 路径。

2022-07-27 文章 yidan zhao
而且pyflink既然打包了flink的完整包,那么真正部署运行的时候是用这个呢?还是需要执行的机器上单独部署一个flink呢?

yidan zhao  于2022年7月27日周三 17:34写道:
>
> 我将这3个jar放到pyflink的lib下则是可以的。通过 add_jar 方式给出是不可以的。有人知道原因吗。
>
> yidan zhao  于2022年7月27日周三 10:40写道:
> >
> > pyflink情况 flink-sql-connector-kafka-1.15.0.jar 可以。
> > 但 flink-connector-base-1.15.0.jar + flink-connector-kafka-1.15.0.jar +
> > kafka-clients-2.8.1.jar 却报:
> > py4j.protocol.Py4JError:
> > org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer does
> > not exist in the JVM
> >
> > Weihua Hu  于2022年7月26日周二 21:21写道:
> > >
> > > 最终会放到 pipeline.jars 配置中,在提交作业时上传到 blobServer
> > >
> > > Best,
> > > Weihua
> > >
> > >
> > > On Tue, Jul 26, 2022 at 5:40 PM yidan zhao  wrote:
> > >
> > > > 如题,我看注释和文档。
> > > > add_jars 是添加要upload到cluster的jar,那么上传到什么路径呢?
> > > >


Re: pyflink 和 add_jars 的 add_classpaths 路径。

2022-07-27 文章 yidan zhao
我将这3个jar放到pyflink的lib下则是可以的。通过 add_jar 方式给出是不可以的。有人知道原因吗。

yidan zhao  于2022年7月27日周三 10:40写道:
>
> pyflink情况 flink-sql-connector-kafka-1.15.0.jar 可以。
> 但 flink-connector-base-1.15.0.jar + flink-connector-kafka-1.15.0.jar +
> kafka-clients-2.8.1.jar 却报:
> py4j.protocol.Py4JError:
> org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer does
> not exist in the JVM
>
> Weihua Hu  于2022年7月26日周二 21:21写道:
> >
> > 最终会放到 pipeline.jars 配置中,在提交作业时上传到 blobServer
> >
> > Best,
> > Weihua
> >
> >
> > On Tue, Jul 26, 2022 at 5:40 PM yidan zhao  wrote:
> >
> > > 如题,我看注释和文档。
> > > add_jars 是添加要upload到cluster的jar,那么上传到什么路径呢?
> > >


Re: pyflink 和 add_jars 的 add_classpaths 路径。

2022-07-26 文章 yidan zhao
pyflink情况 flink-sql-connector-kafka-1.15.0.jar 可以。
但 flink-connector-base-1.15.0.jar + flink-connector-kafka-1.15.0.jar +
kafka-clients-2.8.1.jar 却报:
py4j.protocol.Py4JError:
org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer does
not exist in the JVM

Weihua Hu  于2022年7月26日周二 21:21写道:
>
> 最终会放到 pipeline.jars 配置中,在提交作业时上传到 blobServer
>
> Best,
> Weihua
>
>
> On Tue, Jul 26, 2022 at 5:40 PM yidan zhao  wrote:
>
> > 如题,我看注释和文档。
> > add_jars 是添加要upload到cluster的jar,那么上传到什么路径呢?
> >


Re: pyflink 和 add_jars 的 add_classpaths 路径。

2022-07-26 文章 Weihua Hu
最终会放到 pipeline.jars 配置中,在提交作业时上传到 blobServer

Best,
Weihua


On Tue, Jul 26, 2022 at 5:40 PM yidan zhao  wrote:

> 如题,我看注释和文档。
> add_jars 是添加要upload到cluster的jar,那么上传到什么路径呢?
>


pyflink 和 add_jars 的 add_classpaths 路径。

2022-07-26 文章 yidan zhao
如题,我看注释和文档。
add_jars 是添加要upload到cluster的jar,那么上传到什么路径呢?