pyspark - 如何捕获未由 pyspark 函数转换的行?
问题描述
我编写了一个函数,它将数据帧的数据类型转换为 Pyspark 中的指定模式。如果 Cast 函数无法转换为相应的数据类型,它会默默地将条目设为 Null。
例如F.col(col_name).cast(IntegerType())
,将类型转换为 Integer,如果列值为 Long,它将使其为空。
有什么方法可以捕获它转换为 Null 的情况?在每天运行的数据管道中,如果未捕获这些数据,它将默默地将它们设为 Null 并传递给上游系统。
解决方案
推荐阅读
- php - 我的照片没有上传到数据库和文件
- gradle - 如何持续启用 Gradle 文件系统监视?
- javascript - 如何为多个单选按钮 Laravel Javascript 设置和获取 cookie
- c# - 将二维数组保存为 JSON
- c# - c#自动记忆方法?
- python - python中对象的字典键项
- r - 根据另一列中的字符串从列创建列表
- python - 如何将 OPC UA 服务器连接到 PLC?
- go - 当我使用 `golang.org/x/time` NewLimiter() 时,限制更高的爆发,Allow() 将返回真正的更高的爆发
- oracle - ORA-00907: 过程返回表缺少右括号