python - 如何保存占用更少内存的机器学习模型
问题描述
我正在训练一个 RandomForest 分类器,它的数据集有些大,大约 580mb,需要 30 多分钟才能适应。现在,当我尝试使用 joblib 保存模型时,保存的模型需要大约 11.1gb 的空间。这是正常的,还是我可以在考虑部署模型时更有效地保存模型。
是否值得使用占用这么多空间的模型,因为我有一个占用 278mb 空间的相同数据的决策树模型,它的准确度仅低 2%(91%)
这是模型保存代码
from sklearn.externals import joblib
# Save the model as a pickle in a file
joblib.dump(Random_classifier, '/content/drive/My Drive/Random_classifier.pkl')
我是新手,所以不要投票结束问题,只需发表评论即可。我愿意尽快编辑问题。
解决方案
随机森林分类方法在内存上非常昂贵。尝试降低您的决策树数量,可能会减少一些内存。看来您的数据集也很大,所以我认为您的权重大小似乎是合法的。我也知道有泡菜的方法可以减轻重量,我也建议您检查一下。
推荐阅读
- outlook-web-addins - 我们可以更改用户代理以在 Edge 中运行 Outlook 插件而不是在 Outlook 中运行 IE
- multithreading - C 子线程如何通知主线程,而主线程仍在运行?
- django-rest-framework - 我正在尝试将我的 djangorest api contactsapp 部署到 heroku
- android - 在片段内获取共享视图模型时出错
- javafx - 带有进度指示器和 runLater 的 JavaFX runAsync
- r - 如果我只有关于哪个更接近一对值的数据,我如何近似一个“隐藏”值?
- python-3.x - 如何使用 nodemon 运行 python 3?
- authentication - 本地 S4Hana 中的出站 OAuth 连接可能吗?
- go - 接口返回运行时错误:无效的内存地址或 nil 指针取消引用
- javascript - 可以在 Javascript 端接收主机对象事件吗?