python - Seaborn/Matplotlib 沿线创建自定义错误带
问题描述
我有一个实验,有 10 名参与者,每个人收集了 96 个准确度。acc_i
表示参与者在时间步 i 的整体准确度。因此,我有一个 10x96 的 numpy 矩阵,如下所示:
[[acc_0,acc_1,acc_2,...acc_95]
[acc_0,acc_1,acc_2,...acc_95]
[acc_0,acc_1,acc_2,...acc_95]
.
.
.
[acc_0,acc_1,acc_2,...acc_95]]
我想在每个时间步绘制一条所有参与者的平均准确度线,以及一个显示平均 +- 1 标准偏差的误差带。pd.Series(np.average(human_accuracies, axis=0))
我可以使用和分别计算平均偏差和标准偏差pd.Series(np.std(human_accuracies, axis=0))
。但是,当我使用时,这会在图表上给我两条单独的线:
sns.lineplot(data=avg_accuracies)
sns.lineplot(data=sd_accuracies)
如下所示:
我怎样才能使我的情节更像这里显示的内容:
我希望使用每个时间步的标准偏差i
+- 每个时间步的平均精度来计算误差带i
。
解决方案
推荐阅读
- ios - 如何在同一个avPlayerLayer中正确显示多个视频
- mysql - 如何使用颤振将您的 Firebase 数据库连接到 mysql 数据库?
- ssh - 通过 VNC 连接到来自另一个 Google Cloud 项目的共享映像
- angular - 将材料表的内容复制到剪贴板
- amazon-web-services - 使用 Flutter 进行 Amazon Lex 授权
- prolog - Prolog - 打印一阶表的真值表
- java - Groovy 脚本性能包含 vs 匹配
- node.js - 在树中找到最小的节点
- firebase - 在 Flutter 中将数据保存到 Firebase 实时数据库
- python - Tensorflow 中的“阵列”检测