scala - spark-shell 使用类型安全配置加载 scala 配置
问题描述
我正在尝试application.conf
使用 typesafe-config 加载 spark-shell。
以下是代码和 spark-shell 命令:
斯卡拉代码:
import com.typesafe.config.{Config, ConfigFactory}
val config: Config = ConfigFactory.load("application.conf")
val env = config.getString("key.key1")
火花外壳命令:
spark-shell --jars confing-1.3.4.jar --files application.conf --driver-java-options -Dconfig.file=application.conf
(尝试1)spark-shell --jars confing-1.3.4.jar (attempt 2)
应用程序.conf:
key {
key1 = "value1"
}
错误:
com.typesafe.config.ConfigException$Missing: system properties: No configuration setting found for key 'key'
解决方案
你的 conf 文件在哪里?您是否尝试使用根目录的完整路径?例如:
val config: Config = ConfigFactory.load("/<root-path>/application.conf")
推荐阅读
- c++ - 构建一个保存日期的构造函数
- python - 在使用 cogs 时使用 discord.py 的命令组(子命令)
- vba - VBA Word:如何将图像/图片保存到文件夹?
- javascript - 如何为输入表单中的输入分配唯一 ID
- java - 如何用犀牛脚本处理百分比?
- java - Javafx Canvas不会使用draw方法添加背景图像
- node.js - Heroku 上失控的 node-cron 任务
- spring-boot - OpenFeign 有没有办法支持 application/json;odata.metadata=minimal content-type?
- rust - 有没有办法避免在很多地方写类型约束?
- reactjs - NodeJs:Paystack 验证响应