首页 > 解决方案 > 如何在 Spark Dataframe 中执行 Tukey HSD 测试?

问题描述

我正在尝试使用 pyspark 对一个非常大的数据集执行 Tukey 测试。现在我知道在 python 中我们可以使用模块中的pairwise_tukeyhsdstatsmodels.stats.multicomp。这将需要我将我的 spark 数据框转换为 pandas 数据框,这违背了使用 RDD 的目的,并且不适用于我的大型数据集。

另一种方法是在 spark 数据帧上手动进行数学测试,这很简单,如此处所示 但是,要meansQ_crit值进行比较,我需要 Tukey 的临界值表。

有什么方法可以计算 Tukey 表上的临界值?

标签: dataframeapache-sparkpysparkstatisticstukey

解决方案


推荐阅读