- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我一直在使用用于 OpenCV 的出色 Emgu C# 包装器从自制立体装置收集图像。两个网络摄像头用 bolt 固定在一 block 木头上,相距 35 厘米,希望能让我生成 10-20 米范围内的深度图。我已将它们设置为尽可能平行(三角测量测试大约 89.3 度)。
我正在尝试根据这些制作视差图,尽管该过程作为代码运行,但结果非常随机。我的意思是,每次我尝试运行立体校正时,我都会得到非常不同的结果,而且图像经常严重扭曲,屏幕上几乎看不到任何东西。
据我了解,执行此操作的方法如下:
1) 打印棋盘图案(例如 6 x 8 的内角)- 贴在平坦的东西上。
2)用相机1拍摄一组10张左右的棋盘全景照片,但位置不同。
3) 使用 CameraCalibration.FindChessboardCorners 找到内角(6 x 8)
4) 使用 img.FindCornerSubPix() 将这些角点位置细化到子像素级别
5) 使用 CameraCalibration.CalibrateCamera() 计算内在相机细节,并将其保存为 XML 文件
6) 对相机 2 重复上述操作。
7) 现在您拥有相机内部失真信息,您可以拍摄立体照片对并使用 CameraCalibration.StereoCalibrate() 和先前计算的内部数据来计算外部信息(相机 1 和 2 之间的偏移和旋转)。
8) 使用 CvInvoke.cvStereoRectify() 和 CvInvoke.cvInitUndistortRectifyMap() 然后使用 CvInvoke.cvRemap() 构建输出图像,该图像应在 Y 中排列,以便您可以运行其中一个立体对应测试。
我发现您需要使用 Emgu 2.1 ver 806 才能使 cvStereoRectify 正常工作而不会出现访问冲突错误。
我想我的问题是:
A) 我的流程是否正确?我一直在将相机内部校准作为一个单独的过程进行,因为由于相机相距 35 厘米,所以很难在办公室里看到棋盘并四处移动棋盘......因为它很快就会偏离一边其中一个相机 View 。我认为由于这些值是固有的,因此这些值与相机有关,因此应该转移到立体程序 OK。这是正确的吗?
似乎内在值在 cvStereoRectify 过程中发生了变化,并且变得非常不同。
例如。第一阶段的失真值 = 0.22,-1.2,0.01,-0.01,2.6 在 cvStereoRectify 之后,值更改为= 10,-489,-0.03,-0.09,13208
我不是专家,但第一组似乎更像是我从其他人的评论中看到的,而第二组似乎很奇怪!
B) 有什么方法可以阻止在 cvStereoRectify 期间更新固有失真值吗?
C) 这对于内在值 (937,0,290,0,932,249,0,0,1) 来说是否正确?
非常感谢您提供的任何提示...我已经坚持了一段时间...而且我真的不确定过程的哪一部分引发了错误。任何提示或建议都将非常受欢迎......
最佳答案
我已经有几年没有使用 EMGU 了,但我用它来校准相机和 Kinect。
我发现如果矩形是完全水平的,矩形角的顺序可能会有些困惑 - 我从来没有真正弄清楚为什么,这似乎对我有用。尝试设置电路板,使矩形呈 45 度角滚动(即,从前面看,您会看到更多的菱形,如果这有意义的话)。
我最基本的理解是,这应该让两个摄像头都能轻松确保它们选择与第一个角相同的角来开始计数。
我不能保证这会解决您的问题 - 可能只是我的代码中存在严重错误,这就是为什么当棋盘是平的时它无法产生正常结果的原因。话又说回来,测试不会花很长时间,而且可能会奏效。
关于c# - Emgu (OpenCV for C#) - 使用 cvStereoRectify 构建视差图,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3816791/
我正在尝试从我的系统中完全删除 opencv。我试图学习 ROS,而在教程中我遇到了一个问题。创建空工作区后,我调用catkin_make 它给出了一个常见错误,我在 answers.ros 中搜索并
我在尝试逐步转移对warpAffine的调用时遇到崩溃(不是异常): void rotateImage( const Mat& source, double degree, Mat& output )
如何处理opencv gpu异常?是否有用于opencvgpu异常处理的特定错误代码集api? 我尝试了很多搜索,但只有1个错误代码,即CV_GpuNotSupported。 请帮帮我。 最佳答案 虽
笔记 我是 OpenCV(或计算机视觉)的新手,所以告诉我搜索查询会很有帮助! 我想问什么 我想编写一个从图片中提取名片的程序。 我能够提取粗略的轮廓,但反射光会变成噪点,我无法提取准确的轮廓。请告诉
我想根据像素的某个阈值将Mono16类型的Mat转换为二进制图像。我尝试使用以下内容: 阈值(img,ret,0.1,1,CV_THRESH_BINARY); 尝试编译时,出现make错误,提示: 错
我对使用GPU加速的OpenCV中的卷积函数有疑问。 使用GPU的卷积速度大约快3.5 运行时: convolve(src_32F, kernel, cresult, false, cbuffer);
我正在尝试使用非对称圆圈网格执行相机校准。 我通常找不到适合CirclesGridFinder的文档,尤其是findHoles()函数的文档。 如果您有关于此功能如何工作以及其参数含义的信息,将不胜感
在计算机上绘图和在 OpenCV 的投影仪上投影之间有什么区别吗? 一种选择是投影显示所有内容的计算机屏幕。但也许也有这样的选择,即在投影仪上精确地绘制和投影图像,仅使用计算机作为计算机器。如果我能做
我将Processing(processing.org)用于需要人脸跟踪的项目。现在的问题是由于for循环,程序将耗尽内存。我想停止循环或至少解决内存不足的问题。这是代码。 import hyperm
我有下面的代码: // Image Processing.cpp : Defines the entry point for the console application. // //Save
我正在为某些项目使用opencv。并有应解决的任务。 任务很简单。我有一张主图片,并且有一个模板,而不是将主图片与模板进行比较。我使用matchTemplate()函数。我只是好奇一下。 在文档中,我
我正在尝试使用以下命令创建级联分类器: haartraining -data haarcascade -vec samples.vec -bg negatives.dat -nstages 20 -n
我试图使用OpenCV检测黑色图像中一组形状的颜色,为此我使用了Canny检测。但是,颜色输出总是返回为黑色。 std::vector > Asteroids::DetectPoints(const
我正在尝试使用OpenCv 2.4.5从边缘查找渐变方向,但是我在使用cvSobel()时遇到问题,以下是错误消息和我的代码。我在某处读到它可能是由于浮点(??)之间的转换,但我不知道如何解决它。有帮
我正在尝试构建循环关闭算法,但是在开始开发之前,我想测试哪种功能描述符在真实数据集上效果更好。 我有两个在两个方向拍摄的走廊图像,一个进入房间,另一个离开同一个房间。因此它们代表相同的场景,但具有2个
有没有一种方法可以比较直方图,但例如要排除白色,因此白色不会影响比较。 最佳答案 白色像素有 饱和度 , S = 0 .因此,在创建直方图时很容易从计数中删除白色像素。请执行下列操作: 从 BGR 转
就像本主题的标题一样,如何在OpenCV中确定图像的特定像素(灰度或彩色)是否饱和(例如,亮度过高)? 先感谢您。 最佳答案 根据定义,饱和像素是指与强度(即灰度值或颜色分量之一)等于255相关联的像
我是OpenCV的新用户,正在从事大学项目。程序会获取输入图像,对其进行综合模糊处理,然后对其进行模糊处理。当对合成模糊图像进行反卷积时,会生成边界伪像,因为...好吧,到目前为止,我还没有实现边界条
我想知道OpenCV是haar特征还是lbp是在多尺度搜索过程中缩放图像还是像论文中提到的那样缩放特征本身? 编辑:事实证明,检测器可以缩放图像,而不是功能。有人知道为什么吗?通过缩放功能可以更快。
我在openCv中使用SVM.train命令(已定义了适当的参数)。接下来,我要使用我的算法进行分类,而不是使用svm.predict。 可能吗?我可以访问训练时生成的支持 vector 吗?如果是这
我是一名优秀的程序员,十分优秀!