首页 > 解决方案 > 如何修复 Spark 错误:未找到:值 spark?

问题描述

我在 linux 操作系统上有 2.2.0 版的 Spark。今天我使用启动它spark-shell并输入以下代码: import org.apache.spark.rdd.RDD
val rootPath: String = _
val file: String = s"${rootPath}/mytext.txt"
val lineRDD: RDD[String] = spark.sparkContext.textFile(file) 并抛出以下错误:
错误:未找到:值火花
我应该怎么做才能修复它?提前致谢

标签: apache-spark

解决方案


火花上下文是您在程序中创建的对象,它不是包的一部分。

在 spark shell 中,已经为您创建了一个上下文,称为sc

因此,当您想在 shell 中访问 spark 上下文时,您可以编写

sc.textFile(file)

推荐阅读