bash - Bash 脚本将单个文件从一个 S3 存储桶复制 100 次到另一个并行
问题描述
我想创建一个 shell 脚本,它应该能够将大小为 2GB 的单个文件从一个 AWS S3 存储桶并行复制到另一个 AWS S3 存储桶 100 次。
#!/bin/bash
FILES="xxx.csv"
TABLES="table1 table2 table3 table4 table5"
SOURCE="s3://SourceBucket"
TARGET_PREFIX="s3://TargetBucket/"
echo "Uploading from $SOURCE"
for
table in $TABLES
do
echo "Table: $table"
for file in $FILES
do TARGET="$TARGET_PREFIX/$table/$TARGET_PART"
echo "Uploading $file to INGEST Bucket"
aws s3 cp $SOURCE/$file $TARGET --sse "AES256"
done
done
解决方案
您的目标似乎是测量给定 Amazon EC2 实例的网络性能。您可以利用其他人创建的工具,而不是自己编写。
如果您希望测量同一 VPC 中两个 Amazon EC2 实例之间iperf
的带宽,您可以使用.
有关详细信息,请参阅:基准测试同一 VPC 中 Amazon EC2 Linux 实例之间的网络吞吐量
如果您希望测量Amazon EC2 和 Amazon S3 之间的性能,可以使用dvassallo/s3-benchmark:Measure Amazon S3's performance from any location。
有关此工具的 Reddit 讨论,请参阅:每个 EC2 实例类型的 S3 带宽:编程
推荐阅读
- sql - SQL CTE 性能是否取决于声明顺序?
- c# - Linq 按查询包含在嵌套组中
- r - 在李克特的各个条形之上叠加百分比
- c++ - 错误 C2440:“正在初始化”:无法从“const mynamespace::mytype*”转换为“const T*”
- java - 字符串变量“longestString”如何在这段代码中被覆盖?
- gcc - 我相信 GCC 产生了不正确的机器代码
- javascript - 尝试从我自己的本地主机读取 JSON 数据时出现 CORS 错误
- powershell - 无法在名称包含“[”的目录中使用“ForEach-Object -Parallel”
- java - 为什么我不能做 hashmap.put()
- c++14 - 递归解压缩模板包的无参数函数