python - Spark - tsv文件读为空
问题描述
我有一个 .csv 文件,它使用“\t”作为分隔符,我试图将其读取为:
DF = sqlc.read.format('csv').option('header', 'true').option('delimiter', '\t').load('file.csv')
一些标题列名称以及数据值确实包含空格,但从不包含制表符。这个文件的头被正确读入了DF的头,但是没有数据被读入DataFrame。我究竟做错了什么?
解决方案
您是否尝试过使用SparkSession
API?
from pyspark.sql import SparkSession
spark = SparkSession.builder.getOrCreate()
# spark_context = spark.sparkContext
csv = spark.read.csv(csv_path, sep="\t")
csv.show()
推荐阅读
- jenkins - 詹金斯正在用其他文本替换构建步骤中的文本
- c# - c# 两个 web 参考,一个用于 live on 用于测试
- database - 在 VSTS 中的现有数据库上手动将数据库部署到 SSDT
- c++ - 初始化函数变量时,VC ++参数值在函数内部发生变化
- javascript - Swiper Slider...移除箭头
- git - 在本地 git 服务器上创建拉取请求和合并分支
- c# - WPF ListView Multi-Select MVVM,后面有最少的代码
- python - Keras中图像分割的像素损失权重
- sql - 多行到一行。得到所有的日子,而不是那些匹配课程的日子。以下是结果
- angular - 订阅选择器返回未定义