- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我实际上正在实现一个 C++ 光线追踪器,并且我正面临一个关于光线追踪的经典问题。当放置高垂直 FOV 时,形状离边缘越近,变形越大。
我知道为什么会发生这种失真,但我不知道如何解决它(当然,减少 FOV 是一种选择,但我认为我的代码中有一些地方需要更改)。我一直在浏览不同的计算论坛,但没有找到任何解决方法。
这是说明我的问题的屏幕截图。
我认为问题在于我转换光线的视平面实际上并不平坦,但我不知道如何解决这个问题。如果您有任何解决它的技巧,我愿意接受建议。
我使用的是右手系统。相机系统 vector 、方向 vector 和光 vector 被归一化。
如果您需要一些代码来检查某些内容,我会把它放在您询问的部分的答案中。
光线生成代码:
// PixelScreenX = (pixelx + 0.5) / imageWidth
// PixelCameraX = (2 ∗ PixelScreenx − 1) ∗
// ImageAspectRatio ∗ tan(fov / 2)
float x = (2 * (i + 0.5f) / (float)options.width - 1) *
options.imageAspectRatio * options.scale;
// PixelScreeny = (pixely + 0.5) / imageHeight
// PixelCameraY = (1 − 2 ∗ PixelScreeny) ∗ tan(fov / 2)
float y = (1 - 2 * (j + 0.5f) / (float)options.height) * options.scale;
Vec3f dir;
options.cameraToWorld.multDirMatrix(Vec3f(x, y, -1), dir);
dir.normalize();
newColor = _renderer->castRay(options.orig, dir, objects, options);
最佳答案
你的投影没有问题。它产生的正是它应该产生的。
让我们考虑下图,看看所有数量如何相互作用:
我们有相机位置、视野(作为角度)和图像平面。图像平面是您将 3D 场景投影到的平面。本质上,这代表您的屏幕。当您在屏幕上查看渲染时,您的眼睛充当相机。它会看到投影图像,如果它位于正确的点,它会准确地看到如果实际 3D 场景在那里会看到的东西(忽略景深等效果)
显然,您无法修改屏幕(您可以更改窗口大小,但让我们坚持使用恒定大小的图像平面)。然后,相机的位置和视野之间存在直接关系。随着视野的增加,相机越来越靠近图像平面。像这样:
因此,如果您在代码中增加视野,则需要将眼睛移近屏幕以获得正确的感知。您实际上可以尝试使用您的图像。将眼睛移近屏幕(我说的是 3 厘米)。如果您现在再看外面的球体,它们实际上看起来又像真球了。
总而言之,视野应与观看设置的几何形状大致匹配。对于给定的屏幕尺寸和平均观看距离,这可以很容易地计算出来。如果您的查看设置与您在代码中的假设不匹配,3D 感知将会崩溃。
关于c++ - 光线追踪器 : High FOV distortion,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49236966/
考虑以下透视投影矩阵,它仅适用于调用者给出的垂直视场和纵横比(非常好): func (me *Mat4) Perspective (fovY, aspect, near, far float64) {
我正在使用 Google Card Board Unity SDK 为 Android 开发一款狙击游戏。现在需要调整相机的 FOV,这导致我在 CardBoard.cs 中与名为“mockField
我需要完全按照用户选择的方式保存街景图像(包括 panoID、航向、俯仰和视野)。我有以下代码: panorama = new google.maps.StreetViewPa
我有一个透视 FOV,但在旋转时,它“看起来”不正确 - 较远的物体比较近的物体移动得更快,在屏幕中间通过它们。 所以:这是正确的吗?使用右手坐标,如果这很重要? public static
有一些measured results适用于某些较旧的 iOS 设备,但我无法找到较新型号的 FOV 数字,特别是 iPhone 5s ~ 6s Plus 和 iPad 4 ~ iPad Pro。此外
我在 THREE.JS 中手动设置了我的透视相机的position和fov。它的行为符合预期。但是,当我稍后尝试通过 TrackBall Controls 与 scene 交互时,它只显示黑屏,没有错
我想知道如何使用 c# 在 Unity3d 中平滑地放大和平滑地按下按钮。我已经缩小了部分,但不确定如何平滑地进行放大和缩小的过渡。例如,我希望它像在 ARMA 或 DayZ 游戏中一样平滑地放大。
我有一个程序可以获取设备后置摄像头的 FOV 角度,它以度数返回水平和垂直角度,如下所示: 54.8 42.5 是否有一个简单的转换来应用获取正确的“左、右、下、上”参数以传递到 OpenGL 的 M
我正在尝试更新相机视野而不创建新相机。我已经能够使用下面的代码来通过位置来做到这一点: camera.position.set() 我想以与 fov 类似的方式进行设置: camera.fov.set
我想检测所有由“Wall_[0-24]”标记的游戏对象,它们在相机 FOV 内。我已经尝试过 Raycasting,但因为它只是一条光线,所以它不会同时捕捉到多个物体。我试过这个: void Upda
我正在尝试按照本教程进行操作: http://learningthreejs.com/blog/2011/08/17/tweenjs-for-smooth-animation/ 在 three.js
目前我正在使用 bablyon.js 引擎,目前唯一的主要问题是 FOV。 FOV 太浅,有时会导致渲染效果不佳。 目前我正在使用 BABYLON.FreeCamera() 作为带有控件的主相机,这是
有谁知道我可以使用 Google Maps Android API 中的 Zoom 进行转换的公式:https://developers.google.com/maps/documentation/a
我有一个 SCNCamera 在 iOS 上的 3D SceneKit View 中工作。 当我改变屏幕的方向时,为了保持世界对象相同的大小和相对位置,我需要改变 SCNCamera 的 FoV。 但
我正在尝试开始使用 Direct 3D。但我无法让 fov 相机工作。至少不是垂直运动。我知道了原因,但我仍然无法修复它。 我正在使用 C++ (140) 和 D3DX9 代码: D3DXMATRIX
我实际上正在实现一个 C++ 光线追踪器,并且我正面临一个关于光线追踪的经典问题。当放置高垂直 FOV 时,形状离边缘越近,变形越大。 我知道为什么会发生这种失真,但我不知道如何解决它(当然,减少 F
using System.Collections; using System.Collections.Generic; using UnityEngine; public class MouseOrb
我目前有一个由两个区域组成的屏幕: (值只是这个特定示例的假定值,当然可能因屏幕而异)。 屏幕总尺寸为 1080x1432 像素(宽 x 高),由两个区域组成,每个区域都使用 glViewPort 进
VREyeParameters里面曾经有视野信息,但这已被弃用。所以现在我想知道:是否可以使用 VRFrameData 提供的 View /投影矩阵来计算它? 最佳答案 投影矩阵描述了从场景的 3D
背景 我使用视口(viewport)单位调整所有内容: body { font-size: calc((1vw + 1vh) / 2); } h6 { font-size: 1em; } di
我是一名优秀的程序员,十分优秀!