首页 > 解决方案 > 加入spark数据帧时如何添加多个条件

问题描述

我试过的代码。它不工作。

df_join = df1.join(df2, df1.name == df2.name & df1.no == df2.no).drop("id")

当我搜索其他方法时,我只找到了 spark.sql 方法

标签: dataframeapache-sparkpysparkapache-spark-sql

解决方案


你可以像下面这样

df_join = df1.join(df2, (df1.name == df2.name) & (df1.no == df2.no), how='inner')

这应该可以解决您的问题


推荐阅读