apache-spark - 如何修复 Spark 错误:未找到:值 spark?
问题描述
我在 linux 操作系统上有 2.2.0 版的 Spark。今天我使用启动它spark-shell
并输入以下代码:
import org.apache.spark.rdd.RDD
val rootPath: String = _
val file: String = s"${rootPath}/mytext.txt"
val lineRDD: RDD[String] = spark.sparkContext.textFile(file)
并抛出以下错误:
错误:未找到:值火花
我应该怎么做才能修复它?提前致谢
解决方案
火花上下文是您在程序中创建的对象,它不是包的一部分。
在 spark shell 中,已经为您创建了一个上下文,称为sc
因此,当您想在 shell 中访问 spark 上下文时,您可以编写
sc.textFile(file)
推荐阅读
- windows - RemoteApp Web 客户端:命令行参数
- json - 数据库模型自定义 JSONField 值在测试用例之间持续存在
- flutter - 如何在 Flutter 中浏览 PageView?
- hyperledger-fabric - 我们可以更新关系的价值吗
- javascript - 如何在 JSBin 中进行 lodash 导入?
- javascript - Dropdown onChanged 不解散的问题
- c++ - 使用 Cstrings 进行猪拉丁语转换
- excel - 查找并替换每次出现的多个值(VBA)
- java - 谁消耗更多内存,ArrayList 还是 HashSet / LinkedHashSet?
- java - SSLServerSocket 和证书设置