java - 如何使用 TensorflowLite 捕获对象检测应用程序的边界框内的图像
问题描述
我是开发安卓应用程序的初学者。目前,作为一个学校项目,我正在使用 Android Studio 中的 TensorFlowLite 开发一个口罩检测应用程序。我想知道如何捕获没有戴口罩的图像并将来自边界框的图像保存在内部存储中或发送到数据库中。任何人都知道如何去做这件事?示例代码将不胜感激。谢谢你。
解决方案
如果我正确理解了您的问题,则您拥有返回边界框的对象检测器。如果是这种情况,请尝试使用边界框裁剪图像。如果图像是一个 numpy 数组,那么您可以像这样使用数组切片来裁剪它。
(x1, y1, x2, y2) = detected_bbox
cropped_image = input_image[int(y1):int(y2), int(x1):int(x2)]
如果您的问题包括对象检测和数据库组件等,那么可能会问几个更集中的问题,您可能会得到帮助。
推荐阅读
- r - 如何在 Shiny 的渲染 UI 中渲染复选框?
- c++ - 从 boost::time_duration 检索微秒
- amazon-web-services - 当 AWS API Gateway 事件中的请求中没有源标头时,这意味着什么?
- c# - 一个进程无法访问文件,因为它正被另一个进程使用
- sql - 在 SQL 中获得不需要的输出
- c++ - 如何在此指针上应用限制限定符
- java - 用单个文件编写的应用程序触发 NullPointerException
- javascript - 为什么 JSON.parse() 在我的代码中不起作用?
- java - 在 Java 中正确使用正则表达式,正则表达式不匹配
- sql - Excel 只读文件的 SQL 请求未使用最新的文件版本