apache-spark - 获取有关工作流提交后创建的当前 dataproc 集群的信息
问题描述
假设我使用 dataproc 工作流模板和临时集群运行 pyspark 作业...如何获取在我的 pyspark 作业中创建的集群的名称
解决方案
一种方法是分叉并运行以下命令:
/usr/share/google/get_metadata_value attributes/dataproc-cluster-name
唯一的输出将是集群名称,没有任何换行符或任何其他要清理的内容。请参阅运行 shell 命令并捕获输出
推荐阅读
- led - 红蓝闪烁 LED = 蓝牙配对模式标准化?
- php - 在 PHP 中:在用户邮件中发送验证链接以获取忘记密码
- azure - 部署 Azure Key Vault 的推荐方式
- git - 以干净的方式在 git 中复制 repo 的某个状态
- symfony - 在 Profiler 上显示来自供应商的 Symfony 查询
- java - 子对象没有被删除
- node.js - React + Webpack + babel7 解析 es6 样式函数赋值失败
- pandas - 强制对 pandas 中的特定列进行排序
- android - UI设计方法
- android - Recyclerview 未正确绑定滚动/位置上的项目已更改