python - Spark Job 卡住了将数据帧写入分区 Delta 表
问题描述
运行 databricks 读取 csv 文件,然后保存为分区增量表。
文件中的总记录为 179619219 。它在 COL A(8419 个唯一值)和年份(10 年)和月份上进行拆分。
df.write.partitionBy("A","year","month").format("delta").mode("append").save(path)
作业卡在写入步骤并在运行 5-6 小时后中止
解决方案
推荐阅读
- python - 为什么使用 {% load static %} ?(在我的情况下它什么都没有)
- python - 如何在 python 中重新投影 geoTiff 格式的光栅图像?
- excel - 获取应用程序定义或用户定义的错误
- java - int变量问题的原因是什么?
- javascript - 如何在 Nodejs 中保留内部 {} 的同时展平 JSON 嵌套对象?
- c# - 由于 clear 不起作用,如何清除数组上的元素?
- javascript - 纯 JavaScript 更改 url 循环
- python - 尝试上传文件时出现 MultiValueDictKeyError/打印时没有控制台输出
- javascript - 从 MySQL 查询中获取数据以在 nodejs 中使用
- c# - C# 是否支持通过属性自动自定义序列化/反序列化?