scala - SparkSession 不存在
问题描述
我正在尝试使用 Scala 2.11.12 在 Spark 2.3.0 中定义一个 udf。在我看来,我需要通过阅读文档SparkSession.udf()
来做到这一点。
但我不能导入这个对象,
import org.apache.spark.sql.SparkSession
导致:
Error:(2, 8) object SparkSession is not a member of package org.apache.spark.sql
import org.apache.spark.sql.SparkSession
这是我的 build.sbt:
name := "webtrends-processing-scala"
version := "0.1"
scalaVersion := "2.11.12"
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.3.3"
libraryDependencies += "io.lemonlabs" %% "scala-uri" % "1.4.3"
解决方案
您必须包括spark sql依赖项:
libraryDependencies ++= Seq("org.apache.spark" %% "spark-core" % "2.3.0",
"org.apache.spark" %% "spark-sql" % "2.3.0")
推荐阅读
- ubuntu-18.04 - 如何在 WSL 中正确运行 Ubuntu 中的 Cuda 工具包(最终用于 YOLO)?
- javascript - 为什么当 str 设置为 opt2 和 opt3 时 score 评估得分 +1
- octobercms - 如何预览模型记录
- machine-learning - 在逻辑回归中为分类选择正确的阈值
- python - 对象检测脚本错误 Winerror 2 未指定子进程和 numpy 未被识别?
- debugging - 如何在 Xcode 中为 initWithNibName 设置符号断点
- javascript - 在 TweenLite 中使用 text 方法显示未定义
- python-3.x - 我可以在单个 Cisco IOS 配置文件中使用两个 ciscoconfparse 对象来获取特定接口吗
- jsf - 为什么@Model 是@RequestScope 而不是@SessionScope 或@ViewScope?
- c++ - 相机标定数据检索