gpt4 book ai didi

matlab - 校准相机获得匹配点进行 3D 重建,理想测试失败

转载 作者:太空宇宙 更新时间:2023-11-03 21:46:21 26 4
gpt4 key购买 nike

我之前问过“Use calibrated camera get matched points for 3D reconstruction”这个问题,但是问题没有描述清楚。所以这里我用一个详细的案例来展示每一步。希望有人能帮我找出错误所在。

起初我用坐标做了10个3D点:

>> X = [0,0,0; 
-10,0,0;
-15,0,0;
-13,3,0;
0,6,0;
-2,10,0;
-13,10,0;
0,13,0;
-4,13,0;
-8,17,0]

这些点在图中显示的同一平面上:

我的下一步是使用 3D-2D 投影代码来获取 2D 坐标。在此步骤中,我使用了名为“project_points.m”的 caltech 校准工具箱中的 MATLAB 代码。我还使用了 OpenCV C++ 代码来验证结果,结果是一样的。 (我使用了 cvProjectPoints2())

对于第一个投影,参数是:

>> R = [0, 0.261799387, 0.261799387]
>> T = [0, 20, 100]
>> K = [12800, 0, 1850; 0, 12770, 1700; 0 0 1]

没有失真

>> DisCoe = [0,0,0,0]

旋转只是pi/12的两次旋转。然后我得到了第一个 View 2D 坐标:

>> Points1 = [1850, 4254; 
686.5, 3871.7;
126.3, 3687.6;
255.2, 4116.5;
1653.9, 4987.6;
1288.6, 5391.0;
37.7, 4944.1;
1426.1, 5839.6;
960.0, 5669.1;
377.3, 5977.8]

对于第二个 View ,我改变了:

>> R = [0, -0.261799387, -0.261799387]
>> T = [0, -20, 100]

然后得到2nd View 2D坐标:

>> Points2 = [1850, -854; 
625.4, -585.8;
-11.3, -446.3;
348.6, -117.7;
2046.1, -110.1;
1939.0, 442.9;
588.6, 776.9;
2273.9, 754.0;
1798.1, 875.7;
1446.2, 1501.8]

然后是重建步骤,我已经建立了理想的匹配点(我猜是这样),下一步是计算基本矩阵,使用estimateFundamentalMatrix():

>> F = [-0.000000124206906,  0.000000155821234,  -0.001183448392236;
-0.000000145592802, -0.000000088749112, 0.000918286352329;
0.000872420357685, -0.000233667041696, 0.999998470240927]

已知 K,我使用下面的 matlab 代码计算基本矩阵并计算 Rt,最后是 3D 坐标:

E = K'*F*K;
[u1,w1,v1] = svd(E);
t = (w1(1,1)+w1(2,2))/2;
w1_new = [t,0,0;0,t,0;0,0,0];
E_new = u1*w1_new*v1';
[u2,w2,v2] = svd(E_new);
W = [0,-1,0;1,0,0;0,0,1];
S = [0,0,-1];
P1 = K*eye(3,4);
R = u2*W'*v2';
t = u2*S;
P2 = K*[R t];
for i=1:size(Points1,1)
A = [P1(3,:)*Poinst1(i,1)-P1(1,:);P1(3,:)*Points1(i,2)-P1(2,:);P2(3,:)*Points2(i,1)-P2(1,:);P2(3,:)*Points2(i,2)-P2(2,:)];
[u3,w3,v3] = svd(A);
dpt(i,:) = [v3(1,4) v3(2,4) v3(3,4)];
end

从这段代码我得到如下结果:

>>X_result = [-0.00624167168027166  -0.0964921215725801 -0.475261364542900;
0.0348079221692933 -0.0811757557821619 -0.478479857606225;
0.0555763217997650 -0.0735028994611970 -0.480026199527202;
0.0508767193762549 -0.0886557226954657 -0.473911682320574;
0.00192300693541664 -0.121188713743347 -0.466462048338988;
0.0150597271598557 -0.133665834494933 -0.460372995991565;
0.0590515135110533 -0.115505488681438 -0.460357357303399;
0.0110271144368152 -0.148447743355975 -0.455752218710129;
0.0266380667320528 -0.141395768700202 -0.454774266762764;
0.0470113238869852 -0.148215424398514 -0.445341461836899]

在 Geomagic 中显示这些点后,结果是“有点弯曲”。但那里的立场似乎是正确的。我不知道为什么会这样。有人知道吗?请看图片:

最佳答案

它看起来像数值不准确,可能在你的函数 estimateFundamentalMatrix() 中。

我的第二个猜测是您的 estimateFundamentalMatrix() 没有处理平面情况,这对于某些算法来说是退化的情况(例如,线性 8 点算法不适用于平面场景)。

未校准的基本矩阵估计对于平面场景是模糊的(至少 2 个解)。例如,参见 Hartley & Zisserman 的“多 View 几何”。

关于matlab - 校准相机获得匹配点进行 3D 重建,理想测试失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25113220/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com