apache-spark - 如何在 k8s 上的 spark 中使用 HDFS HA?
问题描述
我的环境是具有 HDFS HA 模式的 CDH5.11,我在我的 Windows PC 中使用 SparkLauncher 提交应用程序,当我编码时
setAppResource("hdfs://ip:port/insertInToSolr.jar")
它有效,但是当我像这样编码时
setAppResource("hdfs://hdfsHA_nameservices/insertInToSolr.jar")
这没用。我已通过修改将我的 hadoop 配置复制到 spark docker 映像
$SPARK_HOME/kubernetes/dockerfiles/spark/entrypoint.sh
当我docker run -it IMAGE ID /bin/bash
用来运行 CONTAINER 时,在 CONTAINER 中我可以使用 spark-shell 来读取 hdfs 和 hive。
解决方案
推荐阅读
- c - C 内联函数生成未定义符号错误
- java - 如何使用 python 应用程序(java、c++、vb api 可用)与桌面应用程序通信?
- r - R:网络爬虫文章
- php - 如何在 Laravel 的刀片视图中显示数据库中的 html 值?
- python - 如何将 json 文件的文件名写入同一个 json 文件的键值对?
- html - 如何使用 jQuery 控制多个 SVG 元素的动画速度?
- java - Firebase 数据库搜索查询无法正常工作
- python - 用 Python 加权调查数据?
- c++ - ofstream : csv 文件中的换行符
- python - 当使用变量作为 soup.find() 的输入时,返回 None,但使用相同的 str 值作为输入有效