tensorflow - 在研究论文中难以理解图像中的补丁数量
问题描述
我正在尝试了解有关阴影检测的论文(链接)。
在第 3.4 节中,作者提到,给定一张图像,他们创建了一批训练实例,其中该批包括:-
- 原始图像调整为 256 × 256 像素。
- 补丁大小为原始图像的 3/4,以 20 的步幅提取,下采样到 256 × 256。
- 原始图像的 256 × 256 块,以 20 的步幅进行采样。
平均而言,他们每张图像获得 13 个训练实例/补丁。
如果我理解正确,他们已经使用了一个函数tf.extract_image_patches
,其中 ksizes分别用于上述第 2 部分和第 3 部分,[1, 0.75*image_height, 0.75*image_width, 1]
并且跨步为.[1, 256, 256, 1]
[1, 20, 20, 1]
ksizes
我尝试使用提到的and运行上述函数strides
,但我从训练数据中平均每张图像获得 267 个补丁。超过90%的图像分别有300height
和300width
以上。该论文使用了SBU Shadow Dataset(链接)。
所以我不确定作者为什么声称每张图像平均只有 13 个补丁。
这里的任何帮助都将帮助我加快阅读和理解论文的速度。
提前致谢
解决方案
推荐阅读
- android - React-Native:在 @react-navigation/material-bottom-tabs 中更改徽章颜色
- javascript - 在Javascript中设置选择下拉值
- python - Kv 文件不能在子目录中包含文件
- postgresql - Confluent Kafka 连接器抛出“找不到适合 jdbc:postgresql 的驱动程序”
- css - 制作适合所有内容的卡片
- java - Kotlin modelMapper, Int to Float
- angular - Angular 使用变量值而不是变量名字符串
- reactjs - 如何将回调作为道具传递给 React 中的较低组件,而无需每次都创建新的回调?
- python - 求解 SelectKBest
- python - 每半小时自动重新加载烧瓶服务器