python - Google Coral Boards 是否有 TensorFlowServing 等价物?
问题描述
语境
几天来,我一直在使用Google Coral USB 加速器,基于 MobileNet(此处的官方版本)和其他自定义模型(移植到 TensorFlow Lite)等经典模型对一些解决方案进行原型设计。另外,我正在使用这个库的 Python 版本。
我的目的是将我目前以传统方式(CPU + GPU)运行的解决方案移植到混合 CPU + Google Coral 方式,将推理委托给我的 Coral USB 记忆棒。
由于我的解决方案涉及推理的多个模型和并发需求,因此我使用Tensorflow Serving为原始部署中的模型提供服务。通过这种方式,我将并发处理委托给 TFS。
另一方面,我注意到我的设备似乎不支持并发,并且显然互斥不包含在tflite_runtime.interpreter
我用来进行推断的类中。
我的问题
是否有 TensorflowLite、Google Coral 框架或一些社区项目级别的官方 API 可以解决我的问题,类似于 TFS 所做的?
否则我想我将被迫实现一些基于例如在这个使用 python 对象的开源项目中的客户端/服务器逻辑multiprocessing.Manager
(见这里)。
提前非常感谢!
解决方案
推荐阅读
- asp.net-mvc - 路由参数未从当前页面传递
- python - python sub state names for abbrev via python dict with re.sub
- docker - Traefik 仪表板和 api 返回 404
- xml - 如何使用 XProc 的 p:http-request 发送 multipart/form-data POST 请求
- javascript - 无法在 Node.js 中使用 Axios 将 Blob 保存到网络目录
- loops - 在 fortran 中读取多个 dat 文件
- r - 合并重复变量,同时在新列中保留唯一值
- directory - 将特定文件复制到特定文件夹
- apache-flink - Apache Flink:以键为标签的指标
- java - 异常 PersistenceException 推翻 NoSuchException