azure - 将数据从 Teradata 移动到 Snowflake
问题描述
试图将数据从 Teradata 移动到 Snowflake。已经创建了一个进程来为每个表运行 TPT 脚本来为每个表生成文件。
在雪花中运行 COPY INTO 时,文件也会被拆分以实现并发。
需要了解将这些文件从 On Prem Linux 计算机移动到 Azure ADLS 的最佳方式是什么。考虑 TB 大小的文件。
Azure 是否提供任何机制来移动这些文件,或者我们可以直接从 Teradata 在 ADLS 上创建文件吗?
解决方案
如果您有 Azure Blob 存储或 ADLS Gen2,则通过外部表将数据加载到雪花的最佳方法。将数据加载到 Blob 存储并创建外部表,然后将数据数据加载到雪花。
推荐阅读
- performance - golang如何知道算法消耗的速度和内存容量
- python - Python SharePoint 连接给出 400 客户端错误
- javascript - TinyMCE 无法初始化插件:wordpress 中的代码错误
- typescript - OnClick 甚至反应打字稿都不起作用
- excel - excel单元格按其他单元格的值自增
- sql - 即使每个标识符都有效,SQL 也拒绝进行连接?(ORA-00904)
- javascript - JS:从对象数组中提取数据
- json - 将转换后的值转换为 JSON 时出错。转换后的值不是有效的 JSON
- c++ - 当 rust-bindgen 不适用于原始头文件时,为 C++ 库编写包装器的最佳方法是什么?
- r - 使用 R 包 RSiena 创建 siena 数据时更改协变量的错误