- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
一段时间以来,我一直在尝试使用 Opencv calibrateCamera() 函数来校准我的相机。我遵循了 opencv 示例程序中描述的相同过程。我试图首先加载 10 9 x 6 棋盘图像。然后寻找棋盘角。如果找到角点,则角点的像素位置存储在 vector< vector < Point2f>> ImagePoints 中。对所有图像执行此操作后,将执行 runCalibrationAndSave 部分。在 runCalibrationAndSave 中,首先执行 runCalibration 部分,其中填充了 ObjectPoints(类型为 vector< vector < Point3f>>)与角落的真实坐标值。到目前为止,代码运行良好,没有出现任何问题。棋盘角被准确找到,ImagePoints vector 也被 vector 填充。但是当它转到 calibrateCamera() 部分时,OpenCV::断言失败并出现以下错误:
OpenCV 错误:
Assertion failed (nimages > 0 && nimages == (int)imagePoints1.total() && (!imgPtMat2 || nimages == (int)imagePoints2.total())) in collectCalibrationData, file /............/modules/calib3d/src/calibration.cpp, line 3164
我对同样的问题做了一些研究,发现这个问题通常发生在 ObjectPoints vector 和 ImagePoints vector 的长度不相等或者它们没有正确填充时。但就我而言,我已经在 Debug模式下检查了两个 vector 是否正确填充了相等的长度。作为引用,我附上了正确运行到 calibrateCamera() 部分之前的代码部分,然后断言失败。
#include <iostream>
#include <sstream>
#include <time.h>
#include <stdio.h>
#include <opencv2/core/core.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/calib3d/calib3d.hpp>
#include <opencv2/highgui/highgui.hpp>
using namespace cv;
using namespace std;
class Settings
{public:
Size boardSize;
float squareSize;
};
bool runCalibrationAndSave(Settings& s, Size imageSize, Mat& cameraMatrix, Mat& distCoeffs,
vector<vector<Point2f> > imagePoints );
int main()
{
Settings s;
s.boardSize.width =9;
s.boardSize.height=6;
s.squareSize=50;
Mat cameraMatrix, distCoeffs;
Size imageSize;
char filename[512];
vector<vector<Point2f> > imagePoints;
for(int counter=0; counter<10; counter++)
{sprintf( filename, "chessboard%d.jpg", counter );
IplImage* img = cvLoadImage(filename);
cv::Mat& m = cv::cvarrToMat(img);
Mat pointBuf = Mat::zeros(54,2,CV_32FC1);
vector<Point2f> pointBuf_vec;
bool found=false;
found = findChessboardCorners( m,s.boardSize, pointBuf,CV_CALIB_CB_ADAPTIVE_THRESH | CV_CALIB_CB_FAST_CHECK | CV_CALIB_CB_NORMALIZE_IMAGE);
if(found)
{
cout<<"check"<<endl;
Mat viewGray;
cvtColor(m, viewGray, CV_BGR2GRAY);
cornerSubPix( viewGray, pointBuf, Size(11 ,11),Size(-1,-1), TermCriteria( CV_TERMCRIT_EPS+CV_TERMCRIT_ITER, 30, 0.1 ));
drawChessboardCorners( m, s.boardSize, Mat(pointBuf), found );
pointBuf_vec.clear();
for(int i=0;i<54;i++)
{
Point2f temp;
temp.x=pointBuf.at<float>(i,0);
temp.y=pointBuf.at<float>(i,1);
pointBuf_vec.push_back(temp);
}
imagePoints.push_back(pointBuf_vec);
}
imshow("Example1",m);
cvWaitKey();
imageSize = m.size();
}
runCalibrationAndSave(s, imageSize, cameraMatrix, distCoeffs, imagePoints);
return 0;
}
static void calcBoardCornerPositions(Size boardSize, float squareSize, vector<Point3f>& corners)
{
corners.clear();
for( int i = 0; i < boardSize.height; i++ )
for( int j = 0; j < boardSize.width; j++ )
{ corners.push_back(Point3f(float( j*squareSize ), float( i*squareSize ), 0));
}
}
static bool runCalibration( Settings& s, Size& imageSize, Mat& cameraMatrix, Mat& distCoeffs,
vector<vector<Point2f> > imagePoints, vector<Mat>& rvecs, vector<Mat>& tvecs,
vector<float>& reprojErrs, double& totalAvgErr)
{
cameraMatrix = Mat::eye(3, 3, CV_64F);
// if( s.flag & CV_CALIB_FIX_ASPECT_RATIO )
// cameraMatrix.at<double>(0,0) = 1.0;
distCoeffs = Mat::zeros(8, 1, CV_64F);
vector<vector<Point3f> > objectPoints;
Mat object_pointBuf = Mat::zeros(s.boardSize.width*s.boardSize.height,3,CV_32FC1);
vector<Point3f> object_pointBuf_vec;
calcBoardCornerPositions(s.boardSize, s.squareSize, object_pointBuf_vec);
for(int k=0;k<imagePoints.size();k++)
{
objectPoints.push_back(object_pointBuf_vec);
}
// objectPoints.resize(imagePoints.size(),objectPoints[0]);
//Find intrinsic and extrinsic camera parameters
double rms = calibrateCamera(objectPoints, imagePoints, imageSize, cameraMatrix,
distCoeffs, rvecs, tvecs, /*s.flag|* /CV_CALIB_FIX_K4|CV_CALIB_FIX_K5);
cout << "Re-projection error reported by calibrateCamera: "<< rms << endl;
bool ok = checkRange(cameraMatrix) && checkRange(distCoeffs);
// totalAvgErr = computeReprojectionErrors(objectPoints, imagePoints,
// rvecs, tvecs, cameraMatrix, distCoeffs, reprojErrs);
return ok;
}
bool runCalibrationAndSave(Settings& s, Size imageSize, Mat& cameraMatrix, Mat& distCoeffs,vector<vector<Point2f> > imagePoints )
{
vector<Mat> rvecs, tvecs;
vector<float> reprojErrs;
double totalAvgErr = 0;
bool ok = runCalibration(s,imageSize, cameraMatrix, distCoeffs, imagePoints, rvecs, tvecs,
reprojErrs, totalAvgErr);
cout << (ok ? "Calibration succeeded" : "Calibration failed")
<< ". avg re projection error = " << totalAvgErr ;
return ok;
}
我正在使用 Visual C++ 和 Opencv 2.4.9。请帮我解决问题。这是我第一次在 SO 中提出任何问题,如果我在提问时犯了任何错误,请告诉我。提前感谢您的帮助。
最佳答案
我发现解决这个问题的唯一方法是下载 OpenCV 源代码,然后使用 CMAKE 和 Visual Studio 2010 构建它。现在使用 cmake 构建的库,消除所有这些问题。还有'imread'和'imshow'相关的问题;当您从 CMAKE 构建 openCV 库时,这些问题也不会出现。有关如何从 CMAKE 构建库,请查看此链接 http://docs.opencv.org/doc/tutorials/introduction/windows_install/windows_install.html希望对您有所帮助。
关于c++ - OpenCV calibrateCamera() 断言失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25733043/
我想知道使用cvCalibrateCamera2来查找两个相机之间的旋转和平移的可能性有多大。 以您刚刚完成棋盘校准的场景为例,其中棋盘对于两个图像平面都是可见的。如果我然后将一个相机中的这些点作为
我正在校准我的相机,以消除图像失真。为了实现这个目标,我正在使用 OpenCV 库的校准相机功能。所以我用棋盘在真实引用系统中取点来提取点数。然后我用mm将这些点转换成真实的引用系。所以最后我得到两个
几天来,我一直在用棋盘示例进行相机校准。一切都很好(找到并显示角,然后馈送到数组)直到我调用最终函数 calibrateCamera。比我得到断言错误: OpenCV 错误:calibrateCame
我正在使用圆网格校准相机。相机位于 table 上方的固定位置,因此我使用单张图像进行校准。 (我将使用的所有对象都是平的,并且与我的校准图像在同一张 table 上。)我将圆心的真实位置放入 obj
我正在使用 calibrateCamera 执行相机校准。部分输出是一组 Rodrigues 旋转矢量和 3-D 平移矢量。 我对相机的世界位置感兴趣。如果我直接绘制翻译点,结果看起来不正确。我觉得我
我正在尝试为三角测量过程获取一个3x4 相机矩阵,但是calibrateCamera()仅返回 3x3 和 4x1 矩阵。 如何从这些矩阵中得到 3x4? 提前致谢! 最佳答案 calibrateCa
一段时间以来,我一直在尝试使用 Opencv calibrateCamera() 函数来校准我的相机。我遵循了 opencv 示例程序中描述的相同过程。我试图首先加载 10 9 x 6 棋盘图像。然后
我正在尝试让calibrateCamera在我的Node.js后端上工作。该库运行正常,但是如果输入错误,我会遇到OpenCV函数无法给出任何错误消息的麻烦。我有点在黑暗中飞翔。 但这不是重点。我已经
我想将 findChessboardCorners 与 calibrateCamera 一起使用,但在使用 calibrateCamera 时遇到错误。输出不是很有帮助。 OpenCV Error:
我正在使用 OpenCV 的 calibrateCamera 并试图了解它如何计算重投影误差以及该误差代表什么。它似乎是投影点和测量图像点之间的(欧几里得)距离的 RMS——对吗?然而,最终的重投影误
当我尝试使用 cv2.calibrateCamera 校准相机时出现以下错误: rms, camera_matrix, dist_coefs, rvecs, tvecs = cv2.calibrate
我试图从函数 cv::calibrateCamera() 中获取 cameraMatrix,实际上我不确定我做的是否正确,我最初的想法是: 获取来自同一相机的两张输入图像。 提取image_1和ima
我有一个 python 脚本,它使用 calibratecamera2 方法从棋盘的几个 View 校准相机。成功校准后,我追踪所有原始点并绘制一些图并再次计算重新投影误差。令我惊讶的是,opencv
我正在尝试使用 cv::calibrateCamera 来校准相机+投影仪系统。虽然它有时似乎有效,但在许多情况下,估计的解决方案似乎与正确的解决方案相去甚远。 这是一个显示问题的代码示例(包括所有数
我正在使用 VisualStudio 2010 和 OpenCV 3.0。我想校准相机,我遇到的问题与 this 中描述的基本相同去年发的帖子,一直没回复。我正在调用 calibrateCamera,
我有一个立体相机装置。我已经捕获了一个 chessboardPattern 序列(相同的序列,每次曝光两张照片)。我使用 cv2.calibrateCamera 对各个相机执行了单个相机校准。 我的问
背景: 我目前正在使用 OpenCV 进行立体视觉项目。我正在尝试从一组两个校正图像创建视差图,但我没有得到我期望的结果。查看校正后的图像时,图像之间存在明显的垂直偏移,校正后不应存在。我目前正在寻找
我正在尝试使用OpenCV calibrateCamera函数来校准我的MSFT LifeCam 3000 HD网络摄像头。为此,我了解需要知道fx和fy(x和y轴的焦距)。但是,我很难找到这些信息。
大家好,我一直在使用 Python 和 OpenCV 深入研究计算机视觉,并尝试校准我购买的两台相机,以便进行一些 3D 立体重建,但我遇到了一些问题。 我主要关注的是这个tutorial为了分别校准
calibrateCamera 的定义是:CV_EXPORTS_W double calibrateCamera( InputArrayOfArrays objectPoints,InputArray
我是一名优秀的程序员,十分优秀!