首页 > 解决方案 > Tensorflow js反应原生非常慢

问题描述

我正在尝试为手机提供深度学习模型。我使用 tensorflow 的 react native 应用程序加载大约需要一分钟。我的模型大约是 175mb(大约 3000 万个参数)。这是我第一次尝试在手机上运行模型,但我在 react native 上找不到任何好的 tensorflow js 性能数据。

我的模型是否太大而无法期望响应原生的相当快的加载和推理时间?这是因为硬件限制还是框架?我读到 tfjs react native 使用 web-gl,它比直接访问移动设备的 gpu 慢,所以我可以使用 core ml 或类似的东西并期待更好的时间吗?

作为一个额外的问题(我还将单独发表一篇文章),我正在考虑的另一条路线是将推理转移到笔记本电脑/台式机的网络浏览器。我可以期望浏览器 web-gl 能够像直接使用计算机 gpu 一样执行吗?

标签: react-nativetensorflow

解决方案


是的,你的 ML Kit 和 Core ML 比 TF.js 快得多。您还可以创建模型,将其转换为 TF lite,然后将其部署到 firebase 并在原生端的 ios 和 android 上使用您的模型(目前@react-native-firebase/ml。不支持自定义模型)。


推荐阅读