amazon-web-services - Redshift 插入查询的最大大小是多少?
问题描述
我正在尝试将多行数据批处理到 RedshiftINSERT
查询中。为了保持效率,我想知道在需要开始新批次之前可以走的最大长度。如果有更好的方法来做到这一点,请告诉我。
编辑:我有点含糊。我正在尝试从 Elasticsearch 到 Redshift。这导致我转换为 JSON 格式:INSERT INTO xxxx VALUES (a1, a2, a3), (b1, b2, b3), (c1, c2, c3)
解决方案
Redshift 语句的最大长度为 16MB。请参阅 https://docs.aws.amazon.com/redshift/latest/dg/c_redshift-sql.html
如果您需要定期加载大量数据,则先将数据移动到 S3 然后使用 Redshift COPY 命令要快得多。
推荐阅读
- postgresql - JPA 休眠,春天。需要向表中添加值
- date - 如何按特定日期和时间更改 xticks 间隔
- selenium - 使用 Selenium时如何单击按钮
- python - 如何在python中读取大型pcap文件
- c - Linux内核中的dump_stack()不打印函数的地址
- laravel - 寻找一种在 Vue 表单中翻译(i18n)laravel 表单验证规则的方法
- ubuntu - 我在 pintos 中的测试格式错误
- c# - 当检查可以是字符串数组中的一个或多个项目时,如何将 listviewitems 添加到数组中?
- c++ - 将类型转换的数组指针传递给 C++ 中的函数
- python - 401 客户端错误:未经授权的 URL。烧瓶蟒蛇