scala - sbt 错误:对象 spark 不是包 org.apache 的成员
问题描述
我安装sbt-1.3.4.msi
并尝试构建示例SparkPi.scala
应用程序时,出现以下错误:
C:\myapps\sbt\sparksample>sbt
[info] Loading project definition from C:\myapps\sbt\sparksample\project
[info] Compiling 1 Scala source to C:\myapps\sbt\sparksample\project\target\scala-2.12\sbt-1.0\classes ...
[error] C:\myapps\sbt\sparksample\project\src\main\scala\SparkPi.scala:3:19: object spark is not a member of package org.apache
[error] import org.apache.spark._
[error] ^
[error] C:\myapps\sbt\sparksample\project\src\main\scala\SparkPi.scala:8:20: not found: type SparkConf
[error] val conf = new SparkConf().setAppName("Spark Pi")
[error] ^
[error] C:\myapps\sbt\sparksample\project\src\main\scala\SparkPi.scala:9:21: not found: type SparkContext
[error] val spark = new SparkContext(conf)
[error] ^
[error] three errors found
[error] (Compile / compileIncremental) Compilation failed
该SparkPi.scala
文件位于C:\myapps\sbt\sparksample\project\src\main\scala
(如上面的错误消息中所示)。
我在这里想念什么?
该C:\myapps\sbt\sparksample\sparksample.sbt
文件如下:
name := "Spark Sample"
version := "1.0"
scalaVersion := "2.12.10"
libraryDependencies += "org.apache.spark" %% "spark-core" % "3.0.0"
解决方案
C:\myapps\sbt\sparksample\project\src\main\scala 目录下有 SparkPi.scala 文件
那就是问题所在。您在project
sbt 本身(不是您的 sbt 管理的 Scala 项目)拥有的目录下拥有 Scala 文件。
将SparkPi.scala
和其他 Scala 文件移动到C:\myapps\sbt\sparksample\src\main\scala
.
推荐阅读
- c# - 颜色不统一显示的发射精灵
- javascript - 通过桶导入函数时出现“未捕获的 TypeError:Object(...) 不是函数”
- reactjs - redux-persist 不保留 React Native 上的状态
- c++ - 出现 2 个错误,该项目只有一个标准的 windows 窗体
- go - 外部包函数的返回通道问题
- javascript - 如何正确地将 .node 插件导入类型脚本?
- java - 用于 SELECT 和 JOIN 的 Azure CosmosDb 延续令牌
- node.js - Webpack 无法正确转换 process.env 值
- powershell - 获取使用 Powershell 禁用所有者的 AD 组
- terraform - Terraform - 覆盖地图中的单个值