deep-learning - TF Lite 优化
问题描述
我尝试使用 ONNX 将我的 Pytorch 模型转换为 TensorFlow Lite。但是我使用 TensorFlow Lite 的推理时间是 Tensorflow 和 Pytorch 的两倍。我在其中运行 TensorFlow Lite 模型google colab
,这是我第一次使用 TensorFlow Lite。
这是我从 Tensorflow 转换为 TensorFlow Lite 的代码:
converter = tf.lite.TFLiteConverter.from_saved_model("model/")
converter.optimizations = [tf.lite.Optimize.DEFAULT]
converter.target_spec.supported_types = [tf.float16]
model_lite = converter.convert()
with open('model.tflite', 'wb') as f:
f.write(model_lite)
任何建议都会对我有很大帮助。
解决方案
TensorFlow Lite 模型应该在嵌入式设备上快速运行。所以你必须在安卓手机中使用它来找出时间。Colab notebook 不会给你正确的时间。
您还可以使用基准工具来测量稳态的推理时间。
推荐阅读
- java - 为什么嵌套的 Java 泛型边界与 Predicate 不匹配?
- javascript - 使用动态数据时,搜索和分页功能在 DataTable 中不起作用
- python - 如何在一个字典中插入一系列 python 数据帧并保存到另一个?
- elasticsearch - 如何将 Jaeger 连接到安全的 Elasticsearch
- mongodb - mongodb 中是否有任何方法可以创建仅对数据库的特定视图具有“读取”访问权限的“用户”?
- sql - Oracle SQL 与子查询的任何比较都会引发右括号丢失错误
- oracle - 从 SAP BODS 中的 oracle 返回 sys_refcursor
- mongodb - 如何让 MongoDB 使用索引?
- php - 如何在请求标头中存储令牌并在 Laravel 8 的标头中使用该令牌进行另一个 API 调用?
- ios - iOS:Almofire PUT 和 DELETE 调用不适用于 Swift 中的参数