android - TF lite 模型在使用 Androids NNAPI 时表现更差
问题描述
我在小米 MI9 上使用 TFLite Model Benchmark Tool 1对各种 tensorflow-lite 模型进行基准测试。我注意到,当我在 Android 神经网络 API 上启用推理时,许多模型的性能更差。
使用 NNAPI 时模型表现不佳的原因可能是什么?
我的猜测是,太大的模型无法在手机协处理器上正确执行,并且必须将数据来回发送到 CPU。
解决方案
最可能的原因在 Alex 建议的线程中,特别是如果您在 Mobilenet 等经过良好测试的标准模型中观察到这一点。
推荐阅读
- mysql - 一对一映射获取空值 Spring boot JPA Hibernate
- python-3.x - 如何从一个句子中只打印python中的int?
- kubernetes - 也无法在具有最新 kubernetes 版本的 gke 集群中使用高级行为配置
- python - 在 sqlalchemy 中使用 sum 和 case 时出错
- flutter - 如何在底部和所有侧面创建带有盒子阴影的容器
- github - 在 Github Desktop 中意外删除了存储 - 不知道如何取回它
- firebase - Flutter 如何将多个身份验证提供者链接到一个 Firebase 帐户?
- javascript - 尝试在 `emcc -s ONLY_MY_CODE` 时设置不存在的设置
- pandas - 遍历两个 Pandas Dataframes + 创建新列
- jestjs - 使用 Jest 模拟 Fetch API 中的问题