首页 > 解决方案 > 加载 Spark Config 以测试 Spark 应用程序

问题描述

我一直在尝试在本地笔记本电脑上测试一个 spark 应用程序,然后再将其部署到集群(以避免每次都打包和部署我的整个应用程序),但在加载 spark 配置文件时遇到了困难。

当我在集群上运行我的应用程序时,我通常会向应用程序提供一个 spark 配置文件(使用 spark-submit 的 --conf)。这个文件有很多配置选项,因为这个应用程序与 Cassandra 和 HDFS 交互。但是,当我尝试在本地笔记本电脑上执行相同操作时,我不确定如何加载此配置文件。我知道我可能可以编写一段代码来获取配置文件的文件路径,然后通过并解析所有值并将它们设置在配置中,但我只是想知道是否有更简单的方法。

当前状态:

标签: apache-sparktestingintegration-testing

解决方案


您是否在 IDE 中添加--properties-file了带有值的标志spark-defaults.conf作为 JVM 的参数?

在官方文档(https://spark.apache.org/docs/latest/configuration.html)中不断引用“您的默认属性文件”。某些选项无法在您的应用程序中设置,因为 JVM 已经启动。而且由于 conf 目录是通过 spark-submit 只读的,我想你必须在本地运行时显式加载配置文件。

此问题已在此处讨论: 如何使用 spark-submit 的 --properties-file 选项在 IntelliJ IDEA 中启动 Spark 应用程序?


推荐阅读