amazon-web-services - 将多个文件从 hadoop 复制到 s3 存储桶
问题描述
我在 Hadoop 目录中有几个文件。我正在尝试将文件从 hadoop 目录复制到 s3 存储桶。
文件列表
样本1.txt
样本2.txt
样本3.txt
我想一次复制所有文件
aws s3 cp *.txt s3://bucket-name/samples/
它向我显示错误
usage: aws [options] <command> <subcommand> [<subcommand> ...] [parameters]
解决方案
你可以这样做:
aws s3 cp . s3://<bucket-name> --recursive --exclude "*" --include "*.txt"
aws s3 cp <Hadoop-Dir-Path> s3://<bucket-name> --recursive --exclude "*" --include "*.txt"
或者您也可以使用同步:
aws s3 sync . s3://<bucket-name> --exclude "*" --include "file.*"
请注意,默认情况下,所有文件都包括在内。这意味着仅提供 --include 过滤器不会更改传输的文件。--include 只会重新包含已从 --exclude 过滤器中排除的文件。如果您只想上传具有特定扩展名的文件,则需要先排除所有文件,然后重新包含具有特定扩展名的文件。此命令将仅上传以 .txt 结尾的文件。
推荐阅读
- javascript - 如何在 amchart v3 中包装 categoryAxis 文本?
- sql - SQL:按日期顺序排列 Month_year
- java - Apache Ignite 缓存原子性模式不匹配
- android - Electron 移动应用的自动化框架
- azure - 终止任务时没有退出代码
- c - Fortran `double precision` 与 C `double` 不同的任何平台?
- java - Apache Camel Milo 客户端超时
- javascript - 如何为多个日期范围选择器制作 Ajax 帖子
- java - Android 数据库选择查询不起作用(空指针错误)
- python - 具有连续变量的 GLPK 优化问题总是返回零