python - pydoop cp 方法 - 如何指定关键字参数“错误”
问题描述
我正在使用 pydoop 在 hdfs 位置之间复制文件。pydoop.hdfs.cp(src_hdfs_path, dest_hdfs_path, **kwargs) 方法文档在此页面上。https://crs4.github.io/pydoop/api_docs/hdfs_api.html
根据文档,关键字参数与 open() 函数相同。所以我尝试了以下代码
import pydoop.hdfs as hdfs
hdfs.cp(srcpath, destpath, errors='ignore')
如果文件在目标路径中不存在,则代码有效。否则它会给出一个文件已经存在的错误。换句话说,errors='ignore' 参数不起作用。
这看起来像一个 pydoop 错误还是我提供了错误的论点?
谢谢。
解决方案
推荐阅读
- stm32 - 如何精确测量/了解 STM32L052K6T6 上的 ADC 参考电压?
- delphi - 在满足条件之前暂停程序执行的更好方法是什么?
- ruby-on-rails - 如何在 ActiveAdmin 中对自定义列进行排序?
- raspberry-pi - 是否可以使用 RPI 组合和控制多个 USB 摄像头
- python - 如何在使用 Python Selenium Webdriver (Firefox) 加载后防止页面更新
- python - 具有稀疏矩阵的numpy元素外积
- android - Android 广色域 - 使用 Glide api 是否需要设置首选色彩空间?
- java - 如何获取带有 XPath 值的字符串列表?
- sql - 使用内部连接和字符串插值更新列
- python - 使用 Paramiko 连接到 SSH/SFTP 服务器时出现“getaddrinfo failed”