scala - 火花批量插入数百万条记录到 400 列 GC 限制的 sql 表中
问题描述
我对 spark scala 比较陌生,我正在尝试将包含数百万条记录的数据帧批量插入到 MS SQL 中。我正在使用Azure sqldb spark进行插入,但在进行实际插入之前 spark 会崩溃(超过 GC 限制或心跳没有响应)。
我尝试设置增加内存、执行程序、超时等,但仍然无法将其写入数据库。规范化 400 列的表模式对我来说不是一个选项。
感谢有关如何解决此问题的任何建议。提前致谢。
解决方案
推荐阅读
- javascript - 当我在 vue 方法中使用 setInterval 时数据变量未定义
- java - 根据条件合并两个列表并使用 java 8 将结果推送到地图
- protractor - 错误:在 config.yml 文件上 ng e2e -- --protractor-config=./e2e/protractor-ci.conf.js 时生成 chromedriver
- php - 集成 CCAVENUE 支付网关时面临的问题
- c# - “违反主键约束'...'。无法在对象中插入重复键
- google-sheets - 如何使用带有公式的新行并被视为空行
- c++ - 访问类的功能不起作用
- pine-script - 如何更改 Y 轴上的货币?
- kubernetes - Kubernetes IP 冲突
- javascript - 如何在 js 或 jquery 中制作 CTRL + '+'