首页 > 解决方案 > 在 Spark 中,我无法按现有列进行过滤

问题描述

我正在尝试使用 spark 按数据框中的一列进行过滤。但火花抛出低于错误,

Exception in thread "main" org.apache.spark.sql.AnalysisException: cannot resolve 'Inv. Pty' given input columns: [Pstng Date, Name 1, Inv. Pty, Year]

invDF.filter(col("Inv. Pty") === "2001075").show()

标签: scalaapache-sparkpysparkapache-spark-sql

解决方案


问题是 Spark 假定带有“点”的列作为结构列。为了解决这个问题,您需要使用反引号“`”。这应该有效:

invDF.filter(col("`Inv. Pty`") === "2001075").show()

推荐阅读