apache-spark - Spark - 是否真的需要安装 scala 才能运行“scala shell”
问题描述
小问题。“scala运行时”(scala SDK)是否真的需要呈现或需要安装以在“本地模式”下运行spark shell或spark程序
JVM 已经存在。
请分享您的意见
解决方案
默认情况下,Spark 有 Scala、Python 运行时。Scala 将在 JVM 上运行。因此,您无需创建单独的运行时。
推荐阅读
- c - 如何处理共享内存中的指针?
- google-apps-script - 通过 appscript 比较谷歌表单和谷歌表格中的输入值
- android - 为什么使用 Xamarin.Forms 的 iOS 工具栏重复而不是隐藏?
- arrays - 从 API 遍历 JSON 格式的哈希数组
- javascript - 如何将 blob 附加到 dom?
- docker - 如何在 swarm 中联网多个堆栈
- php - 已弃用:指令 'allow_url_include' 在第 0 行的 Unknown 中已弃用
- javascript - 将一组 ID 传递给函数(onchange 函数)
- powershell - 如何在 PowerShell 中将纪元时间转换为人类可读的格式?
- c# - 为什么这段代码以如此奇怪的方式移动我的游戏对象?