apache-spark - 有没有办法在通过 pyspark 删除 hdfs 文件时跳过垃圾?
问题描述
我正在使用delete
from org.apache.hadoop.fs
package 来排除一些 HDFS 文件。但我不想将它们移动到我用户的垃圾文件夹,我想永久删除所有内容。我怎样才能做到这一点?
下面是我的代码示例:
fs = spark.sparkContext._jvm.org.apache.hadoop.fs.FileSystem.get(self.spark.sparkContext._jsc.hadoopConfiguration())
fs.delete(self.fileSystem.Path('my/dir/'))
解决方案
推荐阅读
- python - 如何在读取两个输入文件时多次运行python脚本
- android - Google Play 64 位要求 App bundle 更新失败
- node.js - Nodejs 的授权 SSL
- python - 为什么我的 excel 文件在被 Panda's 更新时会跳到 0 Kb?
- python - 通过变量或模式匹配和变量组合的动态 fnmatch 模式
- c# - 在 .NET 中查找下一个 TCP 端口的线程安全方法(通过多个进程)
- swift - Swift 包管理器 - 如何“始终嵌入 Swift 标准库”?
- gnuplot - 语法错误:几个图,其中一个是带有星号(星号)模式的 for 循环
- jakarta-ee - docx4j-ImportXHTML : 处理 docx 中的 HTML 字符
- c++ - C++ 自动折叠规则