首页 > 解决方案 > 如何使用pyspark从文件中查找分隔符

问题描述

有没有办法找到分隔符并使用 spark read 读取该文件。基本上我想使用 spark read 从文件中读取数据

我们期待三种类型的分隔符 (, ; |) 即(逗号、分号、管道)

csv_data = spark.read.load("path of file", format = "csv",header ='true').cache()

标签: pythonapache-sparkpysparkdelimiter

解决方案


我们可以.textFile用来获取firstcsv 文件的行并捕获delimiter分配给变量的内容。

  • 使用delimiter变量读取csv文件

Example:

#sample data
$ cat test.csv
#NAME|AGE|COUNTRY
#a|18|USA
#b|20|Germany
#c|23|USA

#read as textfile and get first row then createdataframe with stringtype
#using regexp_extract function matching only ,|; and extracting assign to delimiter
delimiter=spark.createDataFrame(sc.textFile("file_path/test.csv").take(1),StringType()).\
withColumn("chars",regexp_extract(col("value"),"(,|;|\\|)",1)).\
select("chars").\
collect()[0][0]

delimter
#u'|'

#read csv file with delimiter
spark.read.\
option("delimiter",delimiter).\
option("header",True).\
csv("file_path/test.csv").show()
#+----+---+-------+
#|NAME|AGE|COUNTRY|
#+----+---+-------+
#|   a| 18|    USA|
#|   b| 20|Germany|
#|   c| 23|    USA|
#+----+---+-------+

推荐阅读