gpt4 book ai didi

python - 为什么我的渲染图像没有显示我期望使用 gluLookAt 看到的 View ?

转载 作者:太空宇宙 更新时间:2023-11-03 15:35:35 26 4
gpt4 key购买 nike

我想要解决的任务很简单:加载纹理化 OBJ 文件并显示它,使其占用最大的图像空间。只要相机向下看负 z 轴且 y 轴是向上向量,就不需要旋转网格。我正在使用 pyglet 来做到这一点。

为了将相机设置到所需的位置,我执行以下操作(代码见下文):计算网格的边界球,该边界球由网格的中心和距最远点的半径定义中心。然后我按照解释计算截锥体,例如here并相应地设置正交投影。然后我使用 gluLookAt 来更新 modelviewmatrix,如下所示:相机位于正 z 轴上,朝向网格中心,y 轴是向上向量。

问题是我的渲染图像看起来完全不像我期望的那样,例如网格中心不在图像的中心,如下图所示。该图像显示了边界框和源自网格计算中心的坐标轴(红色:x 轴,绿色:y 轴,蓝色:z 轴)。

enter image description here

设置相机的代码是:

    # get the bounding sphere
center, radius = self._mesh.compute_bounding_sphere()
diam = radius*2.0

print 'center:'
print center
print 'radius: %f' % radius

# set up near and far clipping plane
z_near = 1.0
z_far = z_near + diam

# construct params for orthographic projection matrix
left = center[0] - radius
right = center[0] + radius
bottom = center[1] - radius
top = center[1] + radius

# if we are not rendering a square image, must correct for aspect ratio
aspect_ratio = float(self.width) / float(self.height)
if aspect_ratio < 1.0:
bottom /= aspect_ratio
top /= aspect_ratio
else:
left *= aspect_ratio
right *= aspect_ratio

print 'znear %f, zfar %f' % (z_near, z_far)
print 'left %f, right %f' % (left, right)
print 'bottom %f, top %f' % (bottom, top)

# specify a parallel projection with clipping planes as computed above
glMatrixMode(GL_PROJECTION)
glLoadIdentity()
glOrtho(left, right, bottom, top, z_near, z_far)
# gluPerspective(50.0, aspect_ratio, z_near, z_far)

# construct a viewing transform as follows: we look at the center of the mesh, the eye is located on the
# positive z-axis, and the 3D y-axis is the up-vector, i.e. it will be mapped to the y-axis in image space.
eye = center[2] + radius
print 'eye:'
print eye
glMatrixMode(GL_MODELVIEW)
glLoadIdentity()
gluLookAt(0.0, 0.0, eye, center[0], center[1], center[2], 0.0, 1.0, 0.0)

打印内容

center:
[ 8.51203675 -1.95199815 0.35396978]
radius: 10.462382
znear 1.000000, zfar 21.924764
left -1.950345, right 18.974419
bottom -12.414380, top 8.510384
eye:
10.8163515441

你能帮我找出我做错了什么吗?

最佳答案

There is no need to rotate the mesh as long as the camera is looking down the negative z-axis and the y-axis is the up vector.

您的相机没有俯视 z 轴:

gluLookAt(0.0, 0.0, eye, center[0], center[1], center[2], 0.0, 1.0, 0.0)

这将引入旋转,以便世界空间中的相机方向为(center[0], center[1], center[2] - eye) = (center[0], center[1] ,-半径)

由于您已经根据对象移动了 View 体积,因此注视点将不是出现在屏幕中心的点。你实际上需要做的只是沿着-z看,你只需要沿着+z平移相机:

gluLookAt(0.0, 0.0, eye, 0.0, 0.0, 0.0, 0.0, 1.0, 0.0)

请注意,从概念上讲,您的用例根本不需要 View 矩阵。您可以计算包围对象的轴对齐边界框,并可以直接将其用作 View 体积的参数(就像您对 xy 所做的那样,但对于某些原因,不适合 z)。唯一的技巧是您需要对 nearfar 的值取反,因为 glOrtho 的设计方式。

关于python - 为什么我的渲染图像没有显示我期望使用 gluLookAt 看到的 View ?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42552285/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com