首页 > 解决方案 > 使用 opencv 在 GPU 上调整图像大小会产生空输出矩阵

问题描述

我正在运行这个简单的应用程序来在 GTX1080ti GPU 上执行图像大小调整:

#include <opencv2/opencv.hpp>
#include "opencv2/cudaimgproc.hpp"
#include "opencv2/cudawarping.hpp"
using namespace std;
using namespace cv;
using namespace cv::cuda;
static void gpuResize(Mat in, Mat out){
    double k = in.cols/416.;
    cuda::GpuMat gpuInImage;
    cuda::GpuMat gpuOutImage;
    gpuInImage.upload(in);
    const Size2i &newSize = Size(416, in.rows / k);
    cout << "newSize " << newSize<< endl;
    cuda::resize(gpuInImage, gpuOutImage, newSize);
    gpuOutImage.download(out);
}

int main(){
    Mat im = Mat::zeros(Size(832,832),CV_8UC3);
    Mat out;
    if (getCudaEnabledDeviceCount() == 0){
        return cerr << "No GPU found or the library is compiled without CUDA support" << endl, -1;
    }
    cv::cuda::printShortCudaDeviceInfo(cv::cuda::getDevice());
    gpuResize(im,out);
    cout << "real size="<<out.size() <<endl;
}

我得到的输出:

Device 0:  "GeForce GTX 1080 Ti"  11177Mb, sm_61, Driver/Runtime ver.10.10/10.10
newSize [416 x 416]
real size=[0 x 0]

为什么输出矩阵的大小为 0x0,我应该如何解决?

标签: c++opencvnvidia

解决方案


这看起来像是您如何解析函数的问题。该函数将修改其本地副本,并且一旦您的函数返回。原始输出没有被修改。尝试通过引用解析。


推荐阅读