scala - Scala中的SparkSession版本问题
问题描述
我已经阅读了这篇文章并复制了 Sort-Merge Join Example,但是当我尝试构建项目时,我收到以下错误:
对象 SparkSession 不是包 org.apache.spark.sql 的成员
我见过很多关于这个错误的问题,答案是他们使用的是旧版本的 Spark。但是,我在 Spark 的 build.sbt 2.1 版中提到了他们在该网站上的示例中使用的内容。
这是我的 build.sbt:
name := "Simple Project"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.0"
我错过了什么?
解决方案
缺少 Spark SQL 依赖项
libraryDependencies += "org.apache.spark" %% "spark-sql" % 2.1.0
推荐阅读
- python - 如何根据熊猫数据框中的条件减去时间数据类型
- jq - 如何检查 jq 中的可选字段?
- angular - ngFor多维json对象
- arduino - 将十六进制字符串颜色转换为 uint_16
- javascript - 缩小画布元素然后获取 imageData
- python - requests-html "RuntimeError: 在烧瓶端点上使用线程 'Thread-1' 时没有当前事件循环
- javascript - javascript如何在主题标签上进行正则表达式匹配和替换但排除主题标签字符
- vue.js - 使用 laravel-mix webpack 中的“extract”方法提取 Vue 时是否有 bug
- angular - 有没有办法通过将服务注入/导入到不是组件/服务/存储库的类中来提高代码质量?
- python - 为什么我得到“支持的目标类型是:('binary', 'multiclass')。改为'continuous'。” 错误?