首页 > 解决方案 > Pyspark:pyspark.sql.utils 列不明确

问题描述

df = df.withColumn("ID", df["ID"].cast("int"))

df = df.withColumn("ID_Check" , when(df["ID"] == 1), 1).otherwise(0))

我变得模棱两可。

ID could be : ID, ID.

没有得到它我试过drop("ID")但仍然是同样的问题。

我们如何解决这个问题

标签: pythonapache-sparkpysparkapache-spark-sql

解决方案


尝试这个:

from pyspark.sql.functions import col, when

df = df.withColumn("ID", col("ID").cast("int"))
df = df.withColumn("ID_Check" , when(col("ID") == 1), 1).otherwise(0))

推荐阅读