pyspark - 尝试更改 pyspark 中的数据类型时获取 null
问题描述
我有一个数据集 C1.txt,其中有一列名为 features。所有行都是字符串,代表 x 和 y,二维点的坐标。我想将类型更改为 double 但是当我通过以下代码执行此操作时:
from pyspark.sql.types import(StructField,StringType,IntegerType,StructType,DoubleType)
changedTypedf =df.withColumn("features", df["features"].cast(DoubleType()))
我收到所有行的 null (在更改数据类型之前)。
我不知道是什么问题,请帮我解决这个问题。谢谢
解决方案
推荐阅读
- python - 自动键移位和鼠标右键单击
- c# - NullReferenceException:对象引用未设置为对象 Player.OnCollisionEnter2D 的实例
- amazon-web-services - 如何通过 AWS S3 从 ieee-dataport 下载可公开访问的文件?
- apache-kafka - 回滚消息在 Kafka 主题中保留多长时间
- c++ - 使用给定的可转换单词 C++ 列表将起始字符串转换为目标字符串
- r - 选择最小行并使用 R 返回列名
- mysql - 仅从数据库获取唯一值作为 json 响应
- csv - 如何使用 Data Pipeline 将百万条记录 DynamoDB 表导出为 CSV?
- batch-file - 如何使用命令行指定起始位置?
- javascript - 如何修复无休止的 axios 请求?