scala - 使用 scala spark 删除具有给定扩展名的所有文件
问题描述
当我尝试使用 spark 将数据帧写入 csv 文件时,会生成一些 csv.crc 文件。因此我想删除所有扩展名为 .csv.crc 的文件
val fs = FileSystem.get(existingSparkSession.sparkContext.hadoopConfiguration)
val srcPath=new Path("./src/main/resources/myDirectory/*.csv.crc")
println(fs.exists(srcPath))
println(fs.isFile(srcPath))
if(fs.exists(srcPath) && fs.isFile(srcPath)) {
fs.delete(srcPath,true)
}
两条 prinln 行都给出 false 作为值。因此它甚至没有进入 if 条件。如何使用 scala 和 spark 删除 all.csv.crc 文件
解决方案
您可以在写入时使用以下选项来避免 crc 文件。(注意:您正在消除校验和)。
fs.setVerifyChecksum(false)
.
否则,您可以在阅读以下内容时避免使用 crc 文件,
config.("dfs.client.read.shortcircuit.skip.checksum", "true")
.
推荐阅读
- excel - Docx4J 生成的 XLSX 文件总是损坏
- mongodb - MongoDb 客户端设置代理
- assembly - 使用 Cutter 进行简单的逆向工程练习
- rust - 如何将 reqwest 流转换为 actix 流?
- json - 将数据从 ajax 调用传递到 MVC 控制器时,我得到一个空对象或具有空值的对象
- java - 如何在 docker 镜像中禁用 SpringBoot 应用程序中的 Keep alive
- wordpress - Flatsome UX Builder 未加载
- local-storage - localStorage 在 Chrome 中的标签之间不是持久的吗?
- java - 从本机 Java 中的私钥字符串导出 EC 公钥,用于曲线 secp256k1
- vim - vim autocmd 关闭特定选项卡