google-cloud-dataflow - 使用 Java SDK 以编程方式获取 Dataflow 管道作业列表
问题描述
我知道有一个gcloud
命令:
gcloud dataflow jobs list --help
姓名
gcloud dataflow 作业列表 - 列出特定项目中的所有作业,可选择按区域过滤
描述
默认列出当前项目中的 100 个作业;这可以用 gcloud --project 标志和 --limit 标志覆盖。
使用 --region 标志将仅列出来自给定区域端点的作业。
但我想通过 Dataflow Java SDK 以编程方式检索此列表。
我试图解决的问题:
我有一个流模式的 Dataflow 管道,我想根据此作业是否已部署相应地设置更新选项 ( https://cloud.google.com/dataflow/pipelines/updating-a-pipeline )。
例如,当我第一次部署此作业时,代码不应将此update
标志设置为,true
因为没有要更新的现有作业(否则驱动程序将抱怨并无法启动);并且代码应该能够查询正在运行的作业列表并确认作业正在运行并设置update
更新它的选项(否则DataflowJobAlreadyExistsException
会被抛出)。
解决方案
推荐阅读
- c - 我的 C 程序没有以全名作为输入,还打印了荒谬的性别值
- gradle - Gradle:依赖来自 ant legacy build 的工件
- javascript - 如何在其异步函数范围之外使用变量
- typescript - Typescript:你能根据层次结构创建类型吗?
- c - 如何在结构中声明函数指针,指针指向的函数在其主体中包含该结构?
- ios - pod 安装后 Podfile.lock 散列缓存键更改,即使 pod 都是最新的 azure devops 管道
- c++ - 如何使用 CThreadPool 在后台线程上调用类方法
- docker - sudo unknown group - 需要帮助使用外部高清设置 NextCloud
- single-page-application - 如何制作单页应用程序?
- algorithm - LeetCode 1707. 数组中元素的最大异或