csv - Snowflake - 将大文件放入内部 Snowflake Stage
问题描述
我目前正在尝试将一个大的、解压缩的 CSV 文件上传到内部雪花阶段。该文件为 500 GB。我运行了 put 命令,但看起来并没有发生太多事情。没有状态更新,它只是挂在那里。
有什么想法吗?这最终会超时吗?会完成吗?谁有预估时间?
我很想尝试以某种方式杀死它。我目前正在将 500 gb 的大文件拆分为大约 1000 个小文件,我将对其进行压缩并并行上传(在阅读了有关最佳实践的更多信息之后)。
解决方案
根据雪花建议,请将文件拆分为多个小文件,然后将您的文件暂存到雪花内部阶段。(默认雪花会压缩文件)
然后尝试使用多集群仓库运行复制命令,然后您将看到雪花的性能。
推荐阅读
- javascript - 云功能不偏移 Firestore 查询的日期
- angular - 表格搜索过滤器不起作用,Angular 10
- typescript - Why can TypeScript's compiler not analyze an array of types?
- c - 我无法在c中输入字符值
- mongodb - MongoDB 聚合 - 在单个查询中以 2 种方式分组
- html - 尽管所有单元格都是矩形,但无法让 CSS 网格创建一个空单元格
- pandas - Python - 使用 .iterrows() 以外的方法循环数据帧
- javascript - JQGrid - 如何将 HTML 插入网格页脚
- testing - 在 Windows 10 上安装 jpeg 2000
- php - WSL2 Xdebug PhpStorm 调试