scala - CSV format is not loading in spark-shell
问题描述
Using spark 1.6 I tried following code:
val diamonds = spark.read.format("csv").option("header", "true").option("inferSchema", "true").load("/got_own/com_sep_fil.csv")
which caused the error
error: not found: value spark
解决方案
您需要使用 SQLContext(spark version<2.0) 或 SparkSession(spark version>=2.0) 初始化实例才能使用 Spark 提供的方法。
要为 spark 版本 < 2.0 初始化 spark 实例,请使用:
import org.apache.spark.sql._
val spark = new SQLContext(sc)
要为 spark version >= 2.0 初始化 spark 实例,请使用:
val spark = new SparkConf().setAppName("SparkSessionExample").setMaster("local")
要使用 spark 1.6 和 databricks spark-csv 包读取 csv:
val df = sqlContext.read.format("com.databricks.spark.csv").option("header", "true").option("inferSchema", "true").load("data.csv")
推荐阅读
- python - 如何解析从masscan导出的具有多个JSON对象的文件?
- r - 根据行名删除列
- python - Pyspark 在没有 Internet 的集群中使用 .so 文件分发依赖项
- javascript - 发送多个最终提交表单的 AJAX 请求会导致意外结果
- regex - 如何仅在与模式匹配的行中替换字符串?
- javascript - 如何在控制器中为 ng-blur 添加新功能?
- kotlin - 模拟的挂起 lambda 在 Mockito 中返回 null
- excel - VBA在一个范围内向后循环
- mongodb - Mongo $sort 和 $count 在新版本中变得更糟
- firebase - ERR_CONNECTION_REFUSED - 本地主机:8080,firebaseID 似乎涉及