gpt4 book ai didi

c++ - 相机的错误纵横比计算(简单的光线转换器)

转载 作者:行者123 更新时间:2023-12-02 10:08:49 25 4
gpt4 key购买 nike

我正在研究一些非常简单的光线追踪器。

现在我正在尝试使透视相机正常工作。

我使用这样的循环来渲染场景(只有两个硬编码的球体——我从每个像素的中心转换光线,没有应用 AA):

Camera * camera = new PerspectiveCamera({ 0.0f, 0.0f, 0.0f }/*pos*/, 
{ 0.0f, 0.0f, 1.0f }/*direction*/, { 0.0f, 1.0f, 0.0f }/*up*/,
buffer->getSize() /*projectionPlaneSize*/);
Sphere * sphere1 = new Sphere({ 300.0f, 50.0f, 1000.0f }, 100.0f); //center, radius
Sphere * sphere2 = new Sphere({ 100.0f, 50.0f, 1000.0f }, 50.0f);

for(int i = 0; i < buffer->getSize().getX(); i++) {
for(int j = 0; j < buffer->getSize().getY(); j++) {
//for each pixel of buffer (image)
double centerX = i + 0.5;
double centerY = j + 0.5;

Geometries::Ray ray = camera->generateRay(centerX, centerY);
Collision * collision = ray.testCollision(sphere1, sphere2);
if(collision){
//output red
}else{
//output blue
}
}
}
Camera::generateRay(float x, float y)是:
Camera::generateRay(float x, float y) {
//position = camera position, direction = camera direction etc.
Point2D xy = fromImageToPlaneSpace({ x, y });
Vector3D imagePoint = right * xy.getX() + up * xy.getY() + position + direction;
Vector3D rayDirection = imagePoint - position;
rayDirection.normalizeIt();
return Geometries::Ray(position, rayDirection);
}

Point2D fromImageToPlaneSpace(Point2D uv) {
float width = projectionPlaneSize.getX();
float height = projectionPlaneSize.getY();
float x = ((2 * uv.getX() - width) / width) * tan(fovX);
float y = ((2 * uv.getY() - height) / height) * tan(fovY);
return Point2D(x, y);
}

fovs:
double fovX = 3.14159265359 / 4.0;
double fovY = projectionPlaneSize.getY() / projectionPlaneSize.getX() * fovX;

我得到了 1:1的好结果宽度:高度方面(例如 400x400):
enter image description here

但我收到错误,例如800x400:
enter image description here

对于更大的纵横比(如 1200x400),情况会更糟:
enter image description here

什么 我做错了还是我遗漏了哪一步 ?

会不会是精度问题,或者更确切地说是 fromImageToPlaneSpace(...) 的问题? ?

最佳答案

警告:我在一家视频公司工作了 5 年,但我有点生疏了。

注意:写完后,我意识到像素纵横比可能不是你的问题,因为屏幕纵横比也似乎是错误的,所以你可以跳过一点。

但是,在视频中,我们关注两个不同的视频源:standard definition屏幕纵横比为 4:3和高清屏幕纵横比16:9 .

但是,还有另一个变量/参数:像素纵横比。在标准定义中,像素是方形的,而在 hidef 中,像素是矩形的(反之亦然——我不记得了)。

假设您当前的计算对于屏幕比例是正确的,您可能必须考虑像素长宽比的不同,无论是来自相机源还是您正在使用的显示器。

屏幕纵横比和像素纵横比都可以存储为 .mp4、.jpeg 等。

我下载了你的 1200x400 jpeg。我在其上使用 ImageMagick 仅更改像素纵横比:

convert orig.jpg -resize 125x100%\! new.jpg

这表示更改像素纵横比(将宽度增加 125% 并保持高度不变)。 \!表示像素与屏幕的比例。 125 是因为我记得矩形像素为 8x10。无论如何,您需要将水平宽度增加 10/8,即 1.25 或 125%

不用说,这给了我圆形而不是椭圆形。

实际上,我可以通过调整屏幕纵横比来获得相同的效果。

所以,在你的计算中,你引入了对该因素的扭曲。你在哪里应用缩放?函数调用有何不同?

你在哪里设置屏幕尺寸/比例?我认为没有显示出来(例如,我在任何地方都看不到 1200 或 400 之类的东西)。

如果我不得不冒险猜测,您必须考虑 fromImageToPlaneSpace 中的纵横比.需要预先调整宽度/高度或 x =和/或 y =线条需要比例因子。 AFAICT,目前您所拥有的仅适用于方形几何。为了测试,使用 1200x400 的情况,将 x 乘以 125% [a kludge],我敢打赌你会得到一些东西。

关于c++ - 相机的错误纵横比计算(简单的光线转换器),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33491030/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com