react-native - Tensorflow js反应原生非常慢
问题描述
我正在尝试为手机提供深度学习模型。我使用 tensorflow 的 react native 应用程序加载大约需要一分钟。我的模型大约是 175mb(大约 3000 万个参数)。这是我第一次尝试在手机上运行模型,但我在 react native 上找不到任何好的 tensorflow js 性能数据。
我的模型是否太大而无法期望响应原生的相当快的加载和推理时间?这是因为硬件限制还是框架?我读到 tfjs react native 使用 web-gl,它比直接访问移动设备的 gpu 慢,所以我可以使用 core ml 或类似的东西并期待更好的时间吗?
作为一个额外的问题(我还将单独发表一篇文章),我正在考虑的另一条路线是将推理转移到笔记本电脑/台式机的网络浏览器。我可以期望浏览器 web-gl 能够像直接使用计算机 gpu 一样执行吗?
解决方案
是的,你的 ML Kit 和 Core ML 比 TF.js 快得多。您还可以创建模型,将其转换为 TF lite,然后将其部署到 firebase 并在原生端的 ios 和 android 上使用您的模型(目前@react-native-firebase/ml。不支持自定义模型)。
推荐阅读
- python - 检查文本中的单词,如果它与字典键匹配,则添加到该键的值
- json - 如何使用包含已编码值的 Encodable 在 Swift 中编码结构
- verilog - 如何在 Verilog 中初始化一个整数数组?
- amazon-web-services - 在 ECS 中运行的 .Net Core 应用程序的 S3 请求超时
- java - 如何使用 split 和 Array 读取 .txt 文件
- java - 在所有 GridLayout 点中应用相同的 JLabel?
- html - 倾斜按钮,取消倾斜文本
- java - 是否可以将 application.yml 变量放入属性文件?
- java - 如何使用正则表达式从 XML 中提取标签名称
- python - 识别一致点组