首页 > 解决方案 > 如何保存占用更少内存的机器学习模型

问题描述

我正在训练一个 RandomForest 分类器,它的数据集有些大,大约 580mb,需要 30 多分钟才能适应。现在,当我尝试使用 joblib 保存模型时,保存的模型需要大约 11.1gb 的空间。这是正常的,还是我可以在考虑部署模型时更有效地保存模型。

是否值得使用占用这么多空间的模型,因为我有一个占用 278mb 空间的相同数据的决策树模型,它的准确度仅低 2%(91%)

我的笔记本

这是模型保存代码

from sklearn.externals import joblib  
# Save the model as a pickle in a file 
joblib.dump(Random_classifier, '/content/drive/My Drive/Random_classifier.pkl') 

我是新手,所以不要投票结束问题,只需发表评论即可。我愿意尽快编辑问题。

标签: pythonmachine-learningscikit-learnrandom-forestjoblib

解决方案


随机森林分类方法在内存上非常昂贵。尝试降低您的决策树数量,可能会减少一些内存。看来您的数据集也很大,所以我认为您的权重大小似乎是合法的。我也知道有泡菜的方法可以减轻重量,我也建议您检查一下。


推荐阅读