首页 > 解决方案 > 将多个文件从 hadoop 复制到 s3 存储桶

问题描述

我在 Hadoop 目录中有几个文件。我正在尝试将文件从 hadoop 目录复制到 s3 存储桶。

文件列表

样本1.txt

样本2.txt

样本3.txt

我想一次复制所有文件

 aws s3 cp *.txt s3://bucket-name/samples/

它向我显示错误

usage: aws [options] <command> <subcommand> [<subcommand> ...] [parameters]

标签: amazon-web-serviceshadoopamazon-s3

解决方案


你可以这样做:

aws s3 cp . s3://<bucket-name> --recursive --exclude "*" --include "*.txt"
aws s3 cp <Hadoop-Dir-Path> s3://<bucket-name> --recursive --exclude "*" --include "*.txt"

或者您也可以使用同步:

aws s3 sync . s3://<bucket-name> --exclude "*" --include "file.*"

请注意,默认情况下,所有文件都包括在内。这意味着仅提供 --include 过滤器不会更改传输的文件。--include 只会重新包含已从 --exclude 过滤器中排除的文件。如果您只想上传具有特定扩展名的文件,则需要先排除所有文件,然后重新包含具有特定扩展名的文件。此命令将仅上传以 .txt 结尾的文件。

AWS 文档

用于同步的 AWS 文档


推荐阅读