apache-spark - HDFS中的Pyspark重命名文件
问题描述
我正在使用 spark 2.3.1 并想在 pyspark 程序中重命名 HDFS 文件。我正在关注这个答案[ https://stackoverflow.com/a/58172249/12927963](Pyspark)
对于这条线
fs.rename(路径(hdfs_dir+''+file_name),路径(hdfs_dir+''+new_filename))
我得到以下错误。
NameError:名称“路径”未定义
如果我从行中删除 Path 关键字
我收到以下错误。
Py4JError:调用 o562.rename 时出错。Trace: py4j.Py4JException: Method rename([class java.lang.String, class java.lang.String]) 不存在
那么如何解决这个问题呢?
解决方案
定义路径为
Path = sc._gateway.jvm.org.apache.hadoop.fs.Path
推荐阅读
- java - JSOUP HTTPStatusException 400 错误
- r - 在 R 中,如何在 plotly 中绘制多个 3D 曲面时添加额外的轴?
- excel - excel中嵌套if大于函数的快捷方式是什么?
- php - Laravel:解析服务时,这段代码是如何工作的?
- javascript - 加载时运行方法 - Angular 4
- android - Android Webview - navigator.geolocation.getCurrentPosition 不起作用
- c - c语言按结构中的值排序
- jakarta-ee - 测试 DeltaSpike 存储库无法注入 EntityManager
- shell - 使用 Snakemake 生成报告时出现“没有这样的文件或目录”错误
- ruby - 学习 Ruby 语法的最官方文档或方法是什么?