首页 > 解决方案 > 如何从 Spark 正确读取 S3 中的 .csv 文件?- 无法读取文件的页脚

问题描述

我们正在尝试使用 Spark 在 S3 中读取 .csv 文件,但出现此错误:

py4j.protocol.Py4JJavaError: An error occurred while calling o32.load.
: org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 0.0 failed 4 times, most recent failure: Lost task 0.3 in stage 0.0 (TID 3, 10.50.94.133, executor 0): java.io.IOException: Could not read footer for file: FileStatus{path=s3a://edl-dfs-sas-cecl-dev/output/dev/dev10/h2o/extend_subset.csv; isDirectory=false; length=897466691973; replication=0; blocksize=0; modification_time=0; access_time=0; owner=; group=; permission=rw-rw-rw-; isSymlink=false}

可以做些什么来避免这个错误?

标签: apache-sparkamazon-s3pyspark

解决方案


我能够从 spark 2.2 中的 pyspark shell 中完美阅读 检查屏幕截图

无法复制问题。


推荐阅读