tensorflow - 在 Tensorflow Keras 中加载模型进行推理的最快方法
问题描述
我正在尝试从磁盘快速加载模型以在 REST API 中进行预测。tf.keras.models.load_model方法需要大约 1秒才能加载,所以对于我想要做的事情来说太慢了。编译标志设置为假。
仅在 Tensorflow/Keras 中从磁盘加载模型以进行推理的最快方法是什么?
有没有办法在请求之间将模型保存在内存中?
我尝试了缓存,但 pickle 反序列化非常昂贵,并且增加了 ~1.2s。我怀疑内置的 Keras 加载模型也会进行某种序列化,这似乎是杀手锏。
PD:我知道 TFX,但感觉有点矫枉过正,因为我已经设置了 REST API。预测很快,只需要从磁盘快速加载模型或在请求之间持久化内存。
在此先感谢,琼
解决方案
不要!我有一点脑子放屁的时刻,所以如果你也有,这里有一个解决方案可以完成这项工作。
只需在启动服务器时加载模型,以便所有请求都可以使用模型。
推荐阅读
- .net - Azure 函数内存不足
- sql - 了解联合查询
- nginx - 为什么我的 nginx 在我输入 http ip 地址时总是将我重定向到一个 url 域
- android-studio - 错误:运行 firebase deploy 时找不到模块“semver”--仅功能
- python - Jupyter Lab build: RuntimeError: npm dependencies failed to install
- api - 使用 zoom api 进行 oauth 自定义应用程序时出现 Ex 3500 代码错误
- javascript - 获取卡片对象数组并返回卡片的计数(加权值)
- javascript - Javascript中的递归函数显示NaN
- c++ - 即使在使用 skip_permission_denied 时,std::filesystem 递归迭代器也会抛出 permission_denied
- java - 在java中将不可序列化的对象转换为输入流