apache-spark - 在 spark 中从 s3 读取时处理丢失的数据
问题描述
我正在使用编码器将数据从 s3 读取到 DF,但是在输入数据中缺少编码器实体中指定的一些字段,我得到了
User class threw exception: org.apache.spark.sql.AnalysisException: cannot resolve
我该如何处理这种情况?
Encoder<Entity> sEncoder = Encoders.bean(Entity.class);
Dataset<Entity> sAggregates =sparkSession.read().json(inputPaths.get(0).as(sEncoder);
解决方案
推荐阅读
- python - 在井字游戏中使用 Pygame 和 Python 的 else if 语句突然出现故障?
- javascript - 在 mongo 中使用填充数据进行分页
- c++ - 从文件中读取数据并使用静态数组将其存储在二维数组中
- spring - Spring测试SpringBootTest注解解释及问题
- matlab - 警告:函数在数组输入上的行为异常
- r - 如何替换与 ID 匹配的数据帧值并按 R 中的列执行不同的计算?
- forms - 在表单中使用视图组件
- windows - 在 Windows 上更改 vue cli 创建路径位置
- nestjs - NestJS:在 cron 作业执行期间未定义注入的依赖项
- java - 使用 2D 数组将 PseudoCode 转换为 Java