apache-spark - 使用 Databricks 将十进制字段加载到 Redshift 表时出现 Avro 文件错误
问题描述
我在 Databricks 中有一个数据框,它有一堆列,包括一个 decimal(15,2) 字段。如果我排除十进制字段,那么我可以将此数据插入到 Redshift 表中,但是当包含十进制字段时,我会收到以下错误:
“无法从 s3 文件初始化 avro 阅读器无法解析文件头:无法保存固定架构”
任何想法?
解决方案
尝试在decimal
没有范围的情况下使用。或将现有列转换为decimal
. 也尝试使用不同的tempformat
. 根据我的经验CSV GZIP
是更快。
推荐阅读
- angular - Bootstrap Carousel Indicator 活动颜色更改在 *ngFor 内部不起作用 - Angular
- c# - 存储过程中的日期时间参数
- xcode - Xcode 11 使用命令 PhaseScriptExecution 构建失败
- c# - 我可以在 c# 中跟踪电子邮件是否发送?
- mysql - mysql查询从相同表的2列中获取相等值的行数
- c++ - 标量类型的特征模板
- python - 具有值屏蔽的 groupby
- java - java中的字符串格式化函数
- ionic3 - 当两个div以flex显示时,如何将第二个div向右对齐?
- python-3.x - 如何在 setup.py ubuntu 中获取 pip3 安装路径