python - Pyspark:pyspark.sql.utils 列不明确
问题描述
df = df.withColumn("ID", df["ID"].cast("int"))
df = df.withColumn("ID_Check" , when(df["ID"] == 1), 1).otherwise(0))
我变得模棱两可。
ID could be : ID, ID.
没有得到它我试过drop("ID")
但仍然是同样的问题。
我们如何解决这个问题
解决方案
尝试这个:
from pyspark.sql.functions import col, when
df = df.withColumn("ID", col("ID").cast("int"))
df = df.withColumn("ID_Check" , when(col("ID") == 1), 1).otherwise(0))
推荐阅读
- configuration - 如何配置 Tomcat 以使用 /webapps/myapp 之类的上下文路径
- python - Django:创建表单以添加相关数据
- haskell - 仅小写字符的数据类型
- php - Laravel 的 Queue withChain,不能让它们按顺序运行
- reactjs - Reactjs TypeError:无法读取未定义的属性“toLowerCase”(react-router-config)
- gradle - 如何发布 gradle 子项目?
- c# - 如何在进度条运行期间将经过的计时器(分钟)添加到 GUI
- python - 负整数零
- javascript - io.emit 工作正常,socket.emit 在 socket.io 和 node.js 聊天应用程序中不起作用
- python - 使用 CVXPY 寻找准凸问题的解决方案