首页 > 解决方案 > CNTK Faster RCNN 图像预测结果边界框大小始终跟随图像大小

问题描述

我是 CNTK 和所有机器学习框架的新手。我尝试使用带有 CNTK 的 Faster RCNN 进行图像识别过程。我修改了“DetectionDemo.py”以引用我自己的数据集(正面、负面、testImages,最后是预测图像)。

数据集是底图区域(您可以想象像谷歌地图这样的东西)。一些区域被认为是A类(标记为A),一些区域被认为是B类(标记为B),一些区域是C类(标记为C)等等。所以我想通过使用来预测这些区域及其类别将另一组底图导入 CNTK 作为预测图像。

无论我的预测图像尺寸有多大,我总是使用相同的缩放级别、相同的分辨率(dpi、每单元米)。

在我的第一张预测图像(大约 3200 x 3200 像素)上,系统生成的预测边界框很少,平均约为我的预测图像大小的一半。所以当我使用更大的图像尺寸时,我期望预测边界框尺寸的尺寸相同。但是,当我使用更大的图像尺寸(大约 9000 x 9000 像素)进行预测时,系统生成的预测边界框很少,平均大小也约为我的预测图像尺寸的一半。这一直在进行。当我放置一个尺寸大几倍的预测图像(大约 18000 x 18000 像素)并再次运行预测时,系统生成的预测边界框也很少,平均大小约为我的预测图像大小的一半。在所有这些过程中,训练数据都是一样的,没有变化。它仍然使用相同的模型和设置。

这在 CNTK 中正常吗?如何获得稳定大小的预测边界框结果?为什么预测边界框结果的大小不尝试遵循标记的训练数据边界的平均大小?

期待一些建议...

标签: pythonmachine-learningimage-recognitioncntk

解决方案


推荐阅读