首页 > 解决方案 > 我想在 SBT 项目中做 Spark 教程,我需要安装哪些库?

问题描述

我想做 Apache Spark快速入门教程。对于每个示例,我想在 IntelliJ 中使用 Scala 工作表。

我需要在我的 SBT 配置中添加什么才能使其正常工作?目前,我有:

libraryDependencies += "org.apache.spark" %% "spark-sql" % "2.4.0"

但这还不足以让一切正常工作。我还需要安装什么才能让一切正常工作?

标签: scalaapache-sparkintellij-ideaapache-spark-sqlsbt

解决方案


试试这些:

libraryDependencies += "org.apache.spark" % "spark-core_2.12" % "2.4.0"
libraryDependencies += "org.apache.spark" % "spark-sql_2.12" % "2.4.0"
libraryDependencies += "org.apache.spark" % "spark-mllib_2.12" % "2.4.0"

推荐阅读