scala - 从 sbt 运行 spark-shell
问题描述
获取 spark shell 的默认方式似乎是从网站下载发行版。然而, 这个 spark issue提到它可以通过sbt
. 我找不到这方面的文档。在使用spark-sql
and的 sbt 项目中spark-core
,没有spark-shell
找到二进制文件。
你如何spark-shell
从 sbt 运行?
解决方案
从以下网址:
https://bzhangusc.wordpress.com/2015/11/20/use-sbt-console-as-spark-shell/
如果您已经在项目中使用 Sbt,那么设置 Sbt 控制台以替换 Spark-shell 命令非常简单。让我们从基本情况开始。当您使用 sbt 设置项目时,您可以简单地将控制台运行为
sbt console
在控制台中,您只需要启动 SparkContext 和 SQLContext 使其表现得像 Spark Shell
scala> val sc = new org.apache.spark.SparkContext("localhell")
scala> val sqlContext = new org.apache.spark.sql.SQLContext(sc)
推荐阅读
- reactjs - 警告:遇到两个具有相同键的孩子,`[object Object]
- go - gousb 从 MacOS 交叉编译到 Windows
- powershell - 向对象数组添加新属性。平行
- angular - Angular 11:未捕获的 ReferenceError:未定义进程
- angular - 如何编译 JavaScript 库以符合 es5 目标
- reactjs - 与 React 三纤维组件作斗争
- asp.net-mvc - MVC 网站 URL 更改处理 - 我把它放在哪里?
- django - 为 django-filter als CamelCase 公开 GET-Params
- javascript - ReactJS - 基于函数的组件多次渲染
- swift - Apollo iOS GraphQL 订阅错误:“无效的 HTTP 升级”