首页 > 解决方案 > sbt 错误:对象 spark 不是包 org.apache 的成员

问题描述

我安装sbt-1.3.4.msi并尝试构建示例SparkPi.scala应用程序时,出现以下错误:

C:\myapps\sbt\sparksample>sbt
[info] Loading project definition from C:\myapps\sbt\sparksample\project
[info] Compiling 1 Scala source to C:\myapps\sbt\sparksample\project\target\scala-2.12\sbt-1.0\classes ...
[error] C:\myapps\sbt\sparksample\project\src\main\scala\SparkPi.scala:3:19: object spark is not a member of package org.apache
[error] import org.apache.spark._
[error]                   ^
[error] C:\myapps\sbt\sparksample\project\src\main\scala\SparkPi.scala:8:20: not found: type SparkConf
[error]     val conf = new SparkConf().setAppName("Spark Pi")
[error]                    ^
[error] C:\myapps\sbt\sparksample\project\src\main\scala\SparkPi.scala:9:21: not found: type SparkContext
[error]     val spark = new SparkContext(conf)
[error]                     ^
[error] three errors found
[error] (Compile / compileIncremental) Compilation failed

SparkPi.scala文件位于C:\myapps\sbt\sparksample\project\src\main\scala(如上面的错误消息中所示)。

我在这里想念什么?

C:\myapps\sbt\sparksample\sparksample.sbt文件如下:

name := "Spark Sample"

version := "1.0"

scalaVersion := "2.12.10"

libraryDependencies += "org.apache.spark" %% "spark-core" % "3.0.0"

标签: scalaapache-sparksbt

解决方案


C:\myapps\sbt\sparksample\project\src\main\scala 目录下有 SparkPi.scala 文件

那就是问题所在。您在projectsbt 本身(不是您的 sbt 管理的 Scala 项目)拥有的目录下拥有 Scala 文件。

SparkPi.scala和其他 Scala 文件移动到C:\myapps\sbt\sparksample\src\main\scala.


推荐阅读