首页 > 解决方案 > Spark - 是否真的需要安装 scala 才能运行“scala shell”

问题描述

小问题。“scala运行时”(scala SDK)是否真的需要呈现或需要安装以在“本地模式”下运行spark shell或spark程序

JVM 已经存在。

请分享您的意见

标签: apache-spark

解决方案


默认情况下,Spark 有 Scala、Python 运行时。Scala 将在 JVM 上运行。因此,您无需创建单独的运行时。


推荐阅读