首页 > 解决方案 > Snowflake - 将大文件放入内部 Snowflake Stage

问题描述

我目前正在尝试将一个大的、解压缩的 CSV 文件上传到内部雪花阶段。该文件为 500 GB。我运行了 put 命令,但看起来并没有发生太多事情。没有状态更新,它只是挂在那里。

有什么想法吗?这最终会超时吗?会完成吗?谁有预估时间?

我很想尝试以某种方式杀死它。我目前正在将 500 gb 的大文件拆分为大约 1000 个小文件,我将对其进行压缩并并行上传(在阅读了有关最佳实践的更多信息之后)。

标签: csvosx-snow-leopardsnowflake-cloud-data-platform

解决方案


根据雪花建议,请将文件拆分为多个小文件,然后将您的文件暂存到雪花内部阶段。(默认雪花会压缩文件)

然后尝试使用多集群仓库运行复制命令,然后您将看到雪花的性能。


推荐阅读