首页 > 解决方案 > Kuberenetes 数据本地化上的 Spark 和 HDFS

问题描述

我正在尝试在 K8 上运行 Spark,并在数据局部性方面遇到了一些困难。我正在使用本机 spark 支持,但只是观看了https://databricks.com/session/hdfs-on-kubernetes-lessons-learned。我已经按照那里的步骤设置了我的 HDFS 集群(第一个 k8 节点上的名称节点,使用主机网络)。我想知道是否有人知道所提供的火花驱动程序的修复是否已合并到主线火花代码中?

我问,因为我仍然在我期望 NODE_LOCAL 的地方看到任何地方。

标签: apache-sparkkuberneteshdfs

解决方案



推荐阅读