gpt4 book ai didi

c++ - 使用 opencv 在 GPU 上调整图像大小会产生空输出矩阵

转载 作者:太空宇宙 更新时间:2023-11-04 12:30:42 25 4
gpt4 key购买 nike

我正在运行这个简单的应用程序以在 GTX1080ti GPU 上执行图像大小调整:

#include <opencv2/opencv.hpp>
#include "opencv2/cudaimgproc.hpp"
#include "opencv2/cudawarping.hpp"
using namespace std;
using namespace cv;
using namespace cv::cuda;
static void gpuResize(Mat in, Mat out){
double k = in.cols/416.;
cuda::GpuMat gpuInImage;
cuda::GpuMat gpuOutImage;
gpuInImage.upload(in);
const Size2i &newSize = Size(416, in.rows / k);
cout << "newSize " << newSize<< endl;
cuda::resize(gpuInImage, gpuOutImage, newSize);
gpuOutImage.download(out);
}

int main(){
Mat im = Mat::zeros(Size(832,832),CV_8UC3);
Mat out;
if (getCudaEnabledDeviceCount() == 0){
return cerr << "No GPU found or the library is compiled without CUDA support" << endl, -1;
}
cv::cuda::printShortCudaDeviceInfo(cv::cuda::getDevice());
gpuResize(im,out);
cout << "real size="<<out.size() <<endl;
}

我得到的输出:

Device 0:  "GeForce GTX 1080 Ti"  11177Mb, sm_61, Driver/Runtime ver.10.10/10.10
newSize [416 x 416]
real size=[0 x 0]

为什么输出矩阵的大小为 0x0,我该如何解决?

最佳答案

这看起来像是您如何解析函数的问题。该函数将修改其本地拷贝,一旦您的函数返回。原始输出没有被修改。尝试通过引用解析。

关于c++ - 使用 opencv 在 GPU 上调整图像大小会产生空输出矩阵,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58756026/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com