首页 > 解决方案 > PySpark:Python 字典中所有数据帧的联合

问题描述

每次我的程序运行时,我都有一个字典my_dict_of_df,其中包含可变数量的数据帧。我想创建一个新的数据框,它是所有这些数据框的联合。

我的数据框看起来像 -

my_dict_of_df["df_1"], my_dict_of_df["df_2"] and so on...

如何合并所有这些数据框?

标签: pythondataframepyspark

解决方案


感谢@pault ,咨询了此处给出的解决方案。

from functools import reduce
from pyspark.sql import DataFrame

def union_all(*dfs):
    return reduce(DataFrame.union, dfs)

df1 = sqlContext.createDataFrame([(1, "foo1"), (2, "bar1")], ("k", "v"))
df2 = sqlContext.createDataFrame([(3, "foo2"), (4, "bar2")], ("k", "v"))
df3 = sqlContext.createDataFrame([(5, "foo3"), (6, "bar3")], ("k", "v"))

my_dic = {}
my_dic["df1"] = df1
my_dic["df2"] = df2
my_dic["df3"] = df3

new_df = union_all(*my_dic.values())

print(type(new_df))   # <class 'pyspark.sql.dataframe.DataFrame'>
print(new_df.show())  

"""
+---+----+
|  k|   v|
+---+----+
|  1|foo1|
|  2|bar1|
|  3|foo2|
|  4|bar2|
|  5|foo3|
|  6|bar3|
+---+----+
"""

编辑:使用DataFrame.union而不是DataFrame.unionAll因为后者已被弃用。


推荐阅读