pyspark - 使用 pyspark 模块中的函数时峰度是否过高?
问题描述
使用 pyspark 模块中的峰度函数时pyspark.sql.functions.kurtosis(col)
,结果是否超过正态分布?IE。是否已经从峰度中减去 3 以产生 k-3?还是我们必须自己计算超出部分?
解决方案
我可能是错的,但由于 pyspark 的峰度为负值,我假设它是过度峰度,它已经从计算中减去了 3。
推荐阅读
- java - Java 过滤器适用于一个谓词,但不适用于另一个谓词
- java - 如何从 swt.SelectionListener 中找到事件类型?
- laravel - Laravel Eloquent:在主要语句上应用“with where”过滤器
- jquery - 根据表单输入数创建多维数组
- jquery - JQuery 3.4.1 支持哪个版本的 bootstrap
- docker - 具有特定用户的 Gitlab CI 作业
- javascript - 哈希链接与导航菜单不匹配
- swift - 在 Swift 5 中的 applicationWillResignActive 中显示图像
- flutter - 如何防止关闭 CupertinoActionSheet/showCupertinoModalPopup?
- c# - Sage 200:无法将许多 *.dll 文件添加到我的 Visual Studio C# 项目中以使 Sage 200 基本功能正常工作