database - 从 s3 加载数据到极光 - 大文件
问题描述
我目前正在使用 athena 来处理和执行 ETL——从中获得包含要加载到 aurora rds 表中的整个数据集的 csv 文件。我发现 LOAD DATA FROM S3 是加载数据的一个选项。由于这些文件非常大,大约 10 GB,包含 4-5 百万行数据。aurora 是否可以处理来自同一文件的如此大量数据,或者在此过程中是否会出现超时。如有必要,如何使这些过程更有效率?
解决方案
为此,您应该考虑使用 AWS Database Migration Service。设置迁移后,AWS DMS 将全面管理工作,并处理可能遇到的任何超时或故障。
AWS DMS 允许您使用多个源(包括 S3)将数据加载到多个目标(包括 Aurora)中。
AWS DMS 可以作为一次性任务完成,也可以作为具有持续数据复制的初始负载完成。
迁移期间发生的对源数据库的所有数据更改都会持续复制到目标。
(来自AWS DMS 优势)
推荐阅读
- python - 文件路径无法使用 mod 标头中的令牌打开 - 无法打开 S3 存储桶文件
- javascript - 如果我没有域,如何将 CORS 标头添加到我的 REST API?
- sql - SQL - 创建一个返回值对的查询
- xcode - SwiftUI:如何每天刷新 Apple Watch 复杂功能
- flutter - Dart 对从概念上改变属性的操作使用 setter
- html - 有没有办法去另一个页面,同时去那个页面中间的一个id
- azure - Azure - 在 Powershell 中断开 VNet 集成
- javascript - 是否可以从 pug 中的 onclick 事件中调用 mixin?
- python - 如何绘制方程的实部?
- firebase - android vs firebase函数中的Firestore时间戳格式