apache-spark - GKE 上的 Dataproc 在提交作业时不使用图像
问题描述
为什么 GKE 上的 Dataproc 不支持 Docker 映像提交作业,而是使用原始代码用于 python/R 和 jar 用于其他人。提供容器映像不应该是向 GKE 提交作业的理想方式,无论是普通作业还是 Dataproc 作业?这是在计划中还是正在进行中?
参考:https ://cloud.google.com/dataproc/docs/concepts/jobs/dataproc-gke
解决方案
如问题评论中所述,当前 GKE 上的 Dataproc 迭代背后的主要目的是提供与 GCE 上的 Dataproc 相同的用户体验。这就是为什么它支持不使用 Docker 镜像来执行 Spark 作业的相同 API,并且近期没有计划添加对此的支持。也就是说,未来 Dataproc 可能会决定支持某种容器作为提交作业的一流方式(除了 jar 等)。
推荐阅读
- java - 我在 jitpack 中将我的依赖版本作为 Tag 而不是 1.0 ..?
- java - 警告:org.xerial 的 sqlite-jdbc 未加载
- ssl - 使用 pip3 和 python 安装软件包时出现问题 (ReadTimeoutError / SSLError(SSLCertVerificationError)
- c# - ASP.NET Core 模拟服务仅在一个请求的范围内
- php - 如果客户购买了一些特定的产品,那么我想将其他条件放入其中
- java - Spring 自定义身份验证令牌从未 GCed
- java - 如何在 Android 上将位图图像转换为 TensorImage?
- shap - 获取使用 kNN 进行的预测的 SHAP 值
- database - INSERT INTO 错误和 PLS-00231 错误函数可能无法在 SQL 中使用
- javascript - 丢弃 child 会触发 parent 的“drop”事件侦听器。我想用特定于子的“drop”覆盖该事件侦听器