scala - 我想在 SBT 项目中做 Spark 教程,我需要安装哪些库?
问题描述
我想做 Apache Spark快速入门教程。对于每个示例,我想在 IntelliJ 中使用 Scala 工作表。
我需要在我的 SBT 配置中添加什么才能使其正常工作?目前,我有:
libraryDependencies += "org.apache.spark" %% "spark-sql" % "2.4.0"
但这还不足以让一切正常工作。我还需要安装什么才能让一切正常工作?
解决方案
试试这些:
libraryDependencies += "org.apache.spark" % "spark-core_2.12" % "2.4.0"
libraryDependencies += "org.apache.spark" % "spark-sql_2.12" % "2.4.0"
libraryDependencies += "org.apache.spark" % "spark-mllib_2.12" % "2.4.0"
推荐阅读
- spring-integration - 如何处理 HttpRequestExecutingMessageHandler 中的超时错误?
- string - 在 Scala 中将带空值的字符串数组转换为 Int 数组
- python - 尝试定义 Tweepy API 函数时出现语法错误
- python - 发生异常:需要 TypeError 整数参数,得到浮点数
- angular - 如何从角度 10 中的变量配置访问函数
- sql-server - 如何在一个更新语句中填写 ParentID 列?
- java - 我想使用 Java 将链接 ID 分配给具有特定站点 ID 的公交车站
- swift - Swift:如何在导航控制器之后访问第二个视图?
- sql - 在oracle中的表中插入数据时如何避免空格
- c++ - 双向数组作为函数返回