首页 > 解决方案 > Scala中的SparkSession版本问题

问题描述

我已经阅读了这篇文章并复制了 Sort-Merge Join Example,但是当我尝试构建项目时,我收到以下错误:

对象 SparkSession 不是包 org.apache.spark.sql 的成员

我见过很多关于这个错误的问题,答案是他们使用的是旧版本的 Spark。但是,我在 Spark 的 build.sbt 2.1 版中提到了他们在该网站上的示例中使用的内容。

这是我的 build.sbt:

name := "Simple Project"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.0"

我错过了什么?

标签: scalaapache-spark

解决方案


缺少 Spark SQL 依赖项

libraryDependencies += "org.apache.spark" %% "spark-sql" % 2.1.0

推荐阅读