java - 使用 java 中的 Hadoop API、FileUtil.copy() 或 DistCp.run() 在 Amazon S3 中复制包含大量文件的文件夹更有效
问题描述
我正在尝试在 Amazon S3 中创建包含大量文件的文件夹的副本。源路径和目标路径都在 s3 存储桶中。但我真的不知道哪个选项更有效,FileUtil。 copy() 选项或 Distcp.run() 选项。这两个选项都很容易实现,我只是担心效率,因为我听说 distcp 会在 hadoop 文件系统中创建一个副本,然后将其传输到 s3 存储桶。
解决方案
推荐阅读
- date - PowerBI-如何在具有日期列的数据集中使用日期表或更改形状映射数据选择同一表中的其他列
- python - 如何在 Python 中旋转熊猫数据框?
- c++ - 在 C++ 中按行主要顺序对给定矩阵进行排序
- javascript - 对象解构中会跳过哪些属性?
- scala - Akka-Quartz-Scheduler,如何使用cron表达式
- r - 如何在R中的循环中运行具有多个不同长度参数的函数
- android - 在附加了 viewpager 的片段中附加带有微调器的项目选定侦听器的正确方法
- c - 如何实现http2流客户端?
- ios - iOS 在后台通过 UDP 连接发送视频(屏幕共享)数据包
- ionic-framework - IONIC3 - WriteFile & WriteExistingFile 无法覆盖文件