google-cloud-dataproc - 提供自定义 UUID 以通过气流 DataprocSubmitJobOperator 触发作业
问题描述
我想为通过 Google 云上的 Airflow DataprocSubmitJobOperator 提交的 spark 作业提供自定义作业 ID。
通过 API,我们可以使用 --id 参数来做到这一点,知道我们如何通过这个运算符给出相同的值吗?
解决方案
推荐阅读
- arrays - 如何遍历对象中的数组,使用每个数组值的数据库调用更新对象?
- debugging - 按钮文本 - 调试帮助 - Swift
- python - 将不同的数据保存到不同的 csv 文件中
- postgresql - 列引用不明确,但只有一个表在使用?
- angular - 如何将数据发布到数据库中最新添加的资源/记录?
- java - 如何使用参数模拟 jdbcTemplate.query (Object[]{})
- python - 不知道为什么没有为最大公约数函数定义名称
- windows - 如何在 EditBox 中切换自动换行
- javascript - VUE JS 中“reversedList”计算属性的意外副作用
- python - 当时间戳中仅存在时间时如何在日期时间对象中添加日期