gpt4 book ai didi

opencv - 使用 opencv StereoBM 的差视差图

转载 作者:太空宇宙 更新时间:2023-11-03 20:49:31 25 4
gpt4 key购买 nike

我正在尝试使用 StereoBM 获取两幅图像的视差图。我尝试了一些示例代码和图像。他们工作正常。然而,当我尝试自己的图像时,我得到了非常糟糕的 map ,非常嘈杂。

enter image description here

enter image description here

enter image description here

我的 StereoBM 参数

sbm.state->SADWindowSize = 25;
sbm.state->numberOfDisparities = 128;
sbm.state->preFilterSize = 5;
sbm.state->preFilterCap = 61;
sbm.state->minDisparity = -39;
sbm.state->textureThreshold = 507;
sbm.state->uniquenessRatio = 0;
sbm.state->speckleWindowSize = 0;
sbm.state->speckleRange = 8;
sbm.state->disp12MaxDiff = 1;

我的问题是

  1. 我的图片有什么问题吗?
  2. 是否可以在不校准相机的情况下获得良好的视差图? StereoBM 之前需要矫正图像吗

谢谢。

这是我的纠正图像的代码

Mat img_1 = imread( "image1.jpg", CV_LOAD_IMAGE_GRAYSCALE );
Mat img_2 = imread( "image2.jpg", CV_LOAD_IMAGE_GRAYSCALE );

int minHessian = 430;
SurfFeatureDetector detector( minHessian );
std::vector<KeyPoint> keypoints_1, keypoints_2;
detector.detect( img_1, keypoints_1 );
detector.detect( img_2, keypoints_2 );

//-- Step 2: Calculate descriptors (feature vectors)
SurfDescriptorExtractor extractor;
Mat descriptors_1, descriptors_2;
extractor.compute( img_1, keypoints_1, descriptors_1 );
extractor.compute( img_2, keypoints_2, descriptors_2 );

//-- Step 3: Matching descriptor vectors with a brute force matcher
BFMatcher matcher(NORM_L1, true); //BFMatcher matcher(NORM_L2);

std::vector< DMatch > matches;
matcher.match( descriptors_1, descriptors_2, matches );

double max_dist = 0; double min_dist = 100;
//-- Quick calculation of max and min distances between keypoints
for( int i = 0; i < matches.size(); i++ )
{ double dist = matches[i].distance;
if( dist < min_dist ) min_dist = dist;
if( dist > max_dist ) max_dist = dist;
}

std::vector< DMatch > good_matches;
vector<Point2f>imgpts1,imgpts2;
for( int i = 0; i < matches.size(); i++ )
{
if( matches[i].distance <= max(4.5*min_dist, 0.02) ){
good_matches.push_back( matches[i]);
imgpts1.push_back(keypoints_1[matches[i].queryIdx].pt);
imgpts2.push_back(keypoints_2[matches[i].trainIdx].pt);
}

}

std::vector<uchar> status;
cv::Mat F = cv::findFundamentalMat(imgpts1, imgpts2, cv::FM_8POINT, 3., 0.99, status); //FM_RANSAC

Mat H1,H2;
cv::stereoRectifyUncalibrated(imgpts1, imgpts1, F, img_1.size(), H1, H2);

cv::Mat rectified1(img_1.size(), img_1.type());
cv::warpPerspective(img_1, rectified1, H1, img_1.size());

cv::Mat rectified2(img_2.size(), img_2.type());
cv::warpPerspective(img_2, rectified2, H2, img_2.size());

StereoBM sbm;
sbm.state->SADWindowSize = 25;
sbm.state->numberOfDisparities = 128;
sbm.state->preFilterSize = 5;
sbm.state->preFilterCap = 61;
sbm.state->minDisparity = -39;
sbm.state->textureThreshold = 507;
sbm.state->uniquenessRatio = 0;
sbm.state->speckleWindowSize = 0;
sbm.state->speckleRange = 8;
sbm.state->disp12MaxDiff = 1;

Mat disp,disp8;
sbm(rectified1, rectified2, disp);

校正后的图像和视差图在这里

enter image description here

enter image description here

enter image description here

enter image description here

最佳答案

  1. 您的图片没有特别的问题。但是,如果计算时间不是很重要,我建议您使用更大的分辨率。另外,如果可能的话,你最好给我们一个未压缩的图像格式。

  2. 您校准立体相机以校正您的立体图片。你确实需要纠正图片,但也可以在没有校准相机的情况下纠正它们。如果您只有几张图片要处理,您可以在 Photoshop 或类似软件中通过移动或旋转图像来完成,使匹配点位于同一条线上。如果您有更多的图片要处理,您可以像在代码中尝试的那样处理。

我没有详细查看你的代码,但我想你应该检查匹配点是否在同一行。

在您的示例图片中,情况确实如此,使用 StereoSGMB 而不是 StereoBM 我得到了一些更好但仍然非常嘈杂的结果。

enter image description here

要在 StereoSGMB 中获得良好的结果,需要进行一些参数调整。另请注意,后面的 block 的结果比前面的对象好得多,因为 block 具有纹理表面。

这是我使用的参数:

    Ptr<StereoSGBM> sgbm = StereoSGBM::create(0,    //int minDisparity
96, //int numDisparities
5, //int SADWindowSize
600, //int P1 = 0
2400, //int P2 = 0
20, //int disp12MaxDiff = 0
16, //int preFilterCap = 0
1, //int uniquenessRatio = 0
100, //int speckleWindowSize = 0
20, //int speckleRange = 0
true); //bool fullDP = false

sgbm->compute(left, right, disp);

关于opencv - 使用 opencv StereoBM 的差视差图,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35904437/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com