apache-spark - 通过 operatorhub 部署的 spark-gcp 上的 Webhook
问题描述
我在 k8s 上部署了 gcp-spark 算子。它工作得很好。能够毫无问题地运行 scala 和 python 作业。
但是,我无法在我的 pod 上创建卷挂载。无法使用本地 fs。看起来应该使用 webhook 启用 spark-operator 才能工作。路过这里。
这里有一个带有 webhooks yaml 的 spark-operator ,但名称与通过 operator hub 进行的部署不同。我尽我所知更新了名称并尝试应用部署。但是遇到了下面的问题。
kubectl apply -f spark-operator-with-webhook.yaml
Warning: kubectl apply should be used on resource created by either kubectl create --save-config or kubectl apply
deployment.apps/spark-operator configured
service/spark-webhook unchanged
The Job "spark-operator-init" is invalid: spec.template: Invalid value: core.PodTemplateSpec{ObjectMeta:v1.ObjectMeta{Name:"", GenerateName:"", Namespace:"", SelfLink:"", UID:"", ResourceVers......int(nil)}}: field is immutable
有没有一种简单的方法可以在 spark-operator 上启用 webhook?我希望能够在 sparkapplication 上安装本地 fs。请协助。
解决方案
我清除了初始化对象并重新部署。清单已成功应用。
推荐阅读
- java - JFileChooser 的限制
- java - Java:打印到屏幕被延迟
- conv-neural-network - 在 CNN 的情况下,向 Softmax 函数添加偏差有什么好处?
- razor - 如何在asp.net核心中定义返回html的函数
- reactjs - webpack 解决冲突?我应该使用别名吗?
- node.js - 如何在我调用回调的承诺中捕获错误?
- c# - 带有绑定到列的子句的 LINQ 查询
- c# - 在 C# Winforms 中使用 MouseEvents 更改图表系列的外观
- python - TurtleBot 2i Catkin_Make 给出:ModuleNotFoundError: No module named 'catkin_pkg.terminal_color'
- python - 根据任意字段查找字典列表的交集