首页 > 解决方案 > 在 Pyspark 中,从包含字符串列表的列中获取最频繁的字符串

问题描述

使用包含列的数据框,列中的值是列表,

id    |   values
1     |   ['good','good','good','bad','bad','good','good']
2     |   ['bad','badd','good','bad',Null,'good','bad']
....

如何获得列表中显示频率最高的字符串?预期输出:

id   | most_frequent
1    | 'good'
2    | 'bad'
....

标签: apache-sparkpyspark

解决方案


我看不出有什么理由在explode这里groupby(计算密集的洗牌操作),Spark2.4+我们可以用它higher order functions来获得你想要的输出:

from pyspark.sql import functions as F

df\
  .withColumn("most_common", F.expr("""sort_array(transform(array_distinct(values),\
                                      x-> array(aggregate(values, 0,(acc,t)->acc+IF(t=x,1,0)),x)),False)[0][1]"""))\
  .show(truncate=False)

#+---+----------------------------------------+-----------+
#|id |values                                  |most_common|
#+---+----------------------------------------+-----------+
#|1  |[good, good, good, bad, bad, good, good]|good       |
#|2  |[bad, badd, good, bad,, good, bad]      |bad        |
#+---+----------------------------------------+-----------+

我们也可以使用array_max代替sort_array

from pyspark.sql import functions as F

df\
  .withColumn("most_common", F.expr("""array_max(transform(array_distinct(values),\
                                      x-> array(aggregate(values, 0,(acc,t)->acc+IF(t=x,1,0)),x)))[1]"""))\
  .show(truncate=False)

推荐阅读