首页 > 解决方案 > 通过 operatorhub 部署的 spark-gcp 上的 Webhook

问题描述

我在 k8s 上部署了 gcp-spark 算子。它工作得很好。能够毫无问题地运行 scala 和 python 作业。

但是,我无法在我的 pod 上创建卷挂载。无法使用本地 fs。看起来应该使用 webhook 启用 spark-operator 才能工作。路过这里

这里有一个带有 webhooks yaml 的 spark-operator ,但名称与通过 operator hub 进行的部署不同。我尽我所知更新了名称并尝试应用部署。但是遇到了下面的问题。

kubectl apply -f spark-operator-with-webhook.yaml
Warning: kubectl apply should be used on resource created by either kubectl create --save-config or kubectl apply
deployment.apps/spark-operator configured
service/spark-webhook unchanged
The Job "spark-operator-init" is invalid: spec.template: Invalid value: core.PodTemplateSpec{ObjectMeta:v1.ObjectMeta{Name:"", GenerateName:"", Namespace:"", SelfLink:"", UID:"", ResourceVers......int(nil)}}: field is immutable

有没有一种简单的方法可以在 spark-operator 上启用 webhook?我希望能够在 sparkapplication 上安装本地 fs。请协助。

标签: apache-sparkkubernetes-deploymentkubernetes-operator

解决方案


我清除了初始化对象并重新部署。清单已成功应用。


推荐阅读