python - 如何加载模型进行推理?
问题描述
我正在使用一个简单的基于感知器的分类器在 Pytorch 中生成情感分析,完整代码在这里Classifying Yelp Reviews。
该示例进行情感分析,它输出给定的输入字符串是正面还是负面。
示例:这是一本非常小的古老的好书 -> 正面的
应用程序将最终模型与 vectorizer.json 一起存储。
所以我的问题是:为了测试模型而构建一个单独的应用程序的先决条件应该是什么,以便以后可以在网络应用程序中使用它?
以下是我目前对此的理解和查询:
我假设要测试,我们需要加载模型,加载模型参数并评估推理,请确认
model = TheModelClass(*args, **kwargs) # Model class must be defined somewhere
model.load_state_dict(torch.load(PATH))
model.eval() # run if you only want to use it for inference
完成第 1 步后,我希望我们可以使用 Flask 部署模型并公开 REST API 以进行模型推理。
解决方案
我找到了一个很好的教程,解释了如何加载模型进行推理,这里是链接
https://pytorch.org/tutorials/recipes/recipes/saving_and_loading_models_for_inference.html
谢谢!
推荐阅读
- c# - RadioButton 内容需要占用空间
- mysql - 在日期范围内为每个项目和每个月计算库存中的项目数量 - mysql
- reactjs - 将 React Router 的 props 与 MobX Store 同步
- php - 尝试在控制器内批量分配值时未找到列错误
- extjs - 没有 TopAxis 聚合器的 ExtJs PivotGrid
- python - 我们如何在 frappe (ERPNEXT) 中动态添加子表
- arrays - How to send XSLT array to template
- entity-framework - 将复合主键映射为单个值对象(就 DDD 而言)?
- scala - 可堆叠特征/装饰器和抽象类
- c++ - 要插入的值的状态