docker - 我们如何在 Docker 上提高 TensorFlow API 模型的性能
问题描述
我正在尝试将用于图像处理的 tensorflow 模型投入生产(例如 Yolo),因此我们确实将模型转换为 API,然后我们创建了一个图像 docker,API 模型将在其中运行。
问题是我们在 Docker 映像上运行的 API 模型的性能非常慢,大约每帧/图像 1 秒,而没有 Docker 的模型的性能要快得多,大约每帧/图像 0.01 秒。
有没有办法在 Docker 上运行时提高 API 模型的性能。
我们的 docker 在 24G 显卡 TITAN RTX 上运行
解决方案
推荐阅读
- r - 软件包依赖于 install.packages 中的 Makevars
- acumatica - 为 defaultProvider 指定的提供程序“AspNetXmlSiteMapProvider”不存在
- c++ - MQTT 发布异常(访问冲突读取位置)
- javascript - Vuejs 向烧瓶服务器发送请求,更改 url 并返回原始 json
- python - 使用 gsheet batch_update 在 python 3.8 上是否存在问题?
- php - Windows 任务管理器中的任务超时的可能原因有哪些?
- c# - 在 blazor 中绑定动态值的最佳方法是什么
- c - 如何在范围检查之前重做代码以在循环顶部提示读取和输入
- marklogic - Marklogic Data Hub 框架 5.2.2 映射
- mysql - 错误代码:1292。日期值不正确:日期列的“0000-00-00”