python - 从模拟的高斯数据集中计算平均值/中值/标准偏差的所有值?
问题描述
我已经为特定的高斯分布(特别是 1,000 次试验)生成了许多试验(数据集),并且想要计算所有 1,000 次试验的平均值、中位数和标准差。每个试验包含 100 个数据点。试验是使用以下代码创建的:
import random
import numpy as np
import numpy.random as ra
import statistics
#Defining variables for mu, sigma, number of trials, and N is number of data points for each trial
mu, sigma, trials, N = 0, 1, 1000, 100
#This makes the random numbers generated not change when rerunning the code
np.random.seed(0)
data = np.random.normal(loc=mu, scale=sigma, size=(trials, N))
#This generates 1,000 data sets each with 100 data points from the given mu and sigma
现在这就是我卡住的地方。假设我想计算 1,000 次试验中每一次的平均值。我想使用:
statistics.mean(data)
会工作,但它给了我一个
TypeError:无法将类型“ndarray”转换为分子/分母
任何帮助将不胜感激!
解决方案
推荐阅读
- reactjs - 无法读取未定义的属性“文件”以发送多个图像
- javascript - 从 FileReader.readAsText 结果中删除损坏的文本
- php - 无法连接到邮件服务器 PHP
- javascript - 使用 JavaScript DOM 动态包含 jsp 文件
- docker - 无法从不安全的私有注册表中将图像拉入 minikube - http:服务器向 HTTPS 客户端提供 HTTP 响应
- php - 如何通过 kreait/firebase-php 创建数据消息
- excel - 在 Excel 2013 中使用自动填充 VBA 更新结构化表引用
- docker - 如何使用 puckel/气流图像运行回填作业
- javascript - 在分层数组中深度查找、删除、更新
- java - Spring Webflux - 真实硬件核心和虚拟核心之间的事件循环性能