sql-server - 合并 200 个大型(50mb 到 500mb)CSV 文件的最快方法是什么?
问题描述
我有大约 200 个大型 CSV 数据集。都是一样的格式。其中大约一半> 100mb。我需要一种将它们整合到 1 个(或几个数据库)中的方法。
我曾尝试使用数据工厂将它们放入一个 azure 数据库,但只上传一个 csv 就花了很多时间,更不用说 200 个了。
任何人都可以推荐一种将这些文件放入某种数据库的快速且相对无痛的方法吗?(理想情况下可以支持 SQL 提取)
解决方案
推荐阅读
- machine-learning - 类型错误:inverse_transform() 缺少 1 个必需的位置参数:'y'
- bash - Bash如何初始化变量并将其值输出到一行中的文件
- ms-word - 在 r-markdown 的 atx 样式标题中插入换行符
- python - 如何将给定的相机硬编码到特定的 USB 端口
- android - 带有操作按钮的 Flutter 本地通知
- php - Wordpress 页面无法正确加载
- hadoop - 我无法访问 jobhistoryserver 网络
- flutter - 为什么行动后不设置可见性?
- sql-server - XML (varchar) 单元格中的 MSSQL 编号
- openlayers-3 - 如何通过调用 TMS 来调整旧的 openlayers 代码到 openlayers6