amazon-web-services - 通过 Athena 将 AWS S3 中的 CSV 合并到更大的 GZIP 文件中
问题描述
我正在寻找与 AWS Athena 合作的大型工作。我有大约 650 个 100mb - 1.5GB CSV 文件。我的目标是将这些合并到更少的 Gzipped CSV 文件到另一个文件中。
我使用 AWS Athena 在这些数据上创建了一个表。是否有可能运行这样的工作?现有格式只是标准 CSV(3 列)
表尝试
CREATE TABLE NODES_GZIPPED_NODESTEST2
WITH (
external_location = 's3://mybucket',
format = 'TEXTFILE',
bucketed_by=ARRAY['accessedtime'],
bucket_count = 20
)
AS SELECT *
FROM NodeRun2CSV3
LIMIT 50000
在这种情况下,输出文件中缺少逗号。我怎样才能确保而不是:
data1data2 我会得到data1,data2吗?
解决方案
推荐阅读
- angular - 将文本/csv 文件转换为 blob [Angular 7 / Java]
- javascript - console.log 在 Mac 上没有输出在 MacBook 上工作
- python - Python不执行脚本
- javascript - Reddit 使用哪个 Markdown 编辑器?
- mysql - 在 Laravel 中调用查询生成器后立即更新所有列的值
- javascript - 地图创建后如何设置谷歌地图背景。map.setOptions() 不起作用
- javascript - 如何使用 Mongoose 操作从数据库中读取的字段和引用?
- git - 为什么我的 git 突然神奇地能够显示 pdf 文件的文本差异?
- ruby-on-rails - 使用 Payola 收到条带 webhook 响应后,如何更新订阅和销售表?
- pytorch - 在 AllenNLP 包中保存/加载模型