apache-spark - 在 kubernetes 外使用 YARN Spark Cluster 在 kubernetes 上运行 Zeppelin
问题描述
我正在尝试在 kubernetes 上部署 Zeppelin 0.9.0 并将其配置为在 kubernetes 之外使用 YARN Spark 集群。
为此,我创建了一个自定义 zeppelin 图像,其中我复制了 spark(使用 Hadoop)文件。我已经正确设置了 SPARK_HOME、HADOOP_CONF_DIR 并将模式设置为 yarn-client。
在 Zeppelin 中运行任务时,我可以在 Hadoop 任务列表中看到该作业,但出现以下错误:-“原因:java.io.IOException:无法连接到 spark-sygkqe:41001”。
Hadoop 中的 Spark 正在尝试使用集群内部的主机名与 Zeppelin 解释器连接。有什么办法可以让它工作吗?
解决方案
推荐阅读
- curl - 如何使用 curl 从 xlsx 文件中以文本格式发送特定内容?
- mysql - 当用户在 Django 和 Postgres 中接受好友请求时,如何将两行保存到表中?
- kubernetes - 使用 kubectl 在 Openshift 服务器上运行“应用”时出现禁止错误
- javascript - 如何在动画运行和移动时停止 mouseenter
- sql - 如何为每个学生 ID 插入 5 个兴趣 ID?
- java - 包 com.example.model 不存在
- swift - 当新的 UITextView 可见时为按钮设置动画并向下移动它们
- node.js - Google App Engine,提供静态文件
- javascript - 在一个云功能中从 firebase 数据库中检索多个数据
- python - python - 如何将 C 函数实现为可等待(协程)