首页 > 解决方案 > 如何从对象检测 TensorRT 模型中提取步幅数和框范数?

问题描述

我在网上找到了一个 python 脚本代码来对作为对象检测模型的 trt 模型进行推理。代码正常工作。但我对这个参数的值有一些疑问:

  1. 步数
  2. 框标准化
  3. 宽度
  4. 高度

由于这些值取决于每个模型,因此

我想知道我们如何从代码中的 trt 模型中提取这些参数值?

任何帮助都会得到帮助

当将框转移到预定义的单元格时,推理代码的一部分在这里:

def _compute_grids(box_norm, stride):
    grid_h = int(height / stride)
    grid_w = int(width / stride)
    grid_size = grid_h * grid_w
    grid_centers_w = []
    grid_centers_h = []
    for i in range(grid_h):
        value = (i * stride + 0.5) /box_norm
        grid_centers_h.append(value)
    for i in range(grid_w):
        value = (i * stride + 0.5) / box_norm
        grid_centers_w.append(value)
    return grid_w, grid_w, grid_size, grid_centers_w, grid_centers_h


def _applyBoxNorm(o1, o2, o3, o4, x, y, grid_centers_w, grid_centers_h):
    o1 = (o1 - grid_centers_w[x]) * -box_norm
    o2 = (o2 - grid_centers_h[y]) * -box_norm
    o3 = (o3 + grid_centers_w[x]) * box_norm
    o4 = (o4 + grid_centers_h[y]) * box_norm
    return o1, o2, o3, o4

标签: pythondeep-learningparametersobject-detectiontensorrt

解决方案


推荐阅读