2 回答
TA贡献1966条经验 获得超4个赞
Cloud Function 应该用 Python 编写
Cloud Dataflow Client SDK 只能从模板创建数据流作业。因此,除非您创建自己的模板,否则无法实现此要求。
我有一个限制,即 Cloud Dataflow 作业应该用 Go 编写
由于您的 Python 目标无法实现,您的另一个选择是在 Cloud Functions 中运行您的 Go 程序。Go 的 Cloud Functions 在alpha
. 但是,我不知道有什么方法可以在 Cloud Functions 中执行 Apache Beam (Dataflow) 程序。请记住,Apache Beam 程序开始在本地执行并将其自身连接到在其他地方(Dataflow、Spark 等)运行的集群,除非您选择runner=DirectRunner
.
您选择了最不成熟的语言来使用 Apache Beam。成熟度和功能的顺序是 Java(优秀)、Python(很好并且每天都在进步)、Go(还没有准备好迎接黄金时段)。
如果您想在 Cloud Dataflow 上运行用 Go 编写的 Apache Beam 程序,那么您将需要使用一个平台,例如您的本地系统、Google Compute Engine 或 Google App Engine Flex。我不知道 App Engine Standard 是否可以在 Go 中运行 Apache Beam。
TA贡献1869条经验 获得超4个赞
我发现 Apache Beam Go SDK 支持worker_binary
类似于template-location
Java 数据流作业的参数。使用此选项,我能够从我的 python 云函数启动一个 go 数据流作业。
- 2 回答
- 0 关注
- 157 浏览
添加回答
举报