gpt4 book ai didi

c++ - 优化渲染到纹理过程

转载 作者:太空狗 更新时间:2023-10-29 23:19:04 24 4
gpt4 key购买 nike

我正在开发一个渲染到纹理的过程,该过程涉及使用多个摄像机来渲染整个几何场景。然后通过在顶点着色器中将每个几何体的顶点坐标转换为屏幕坐标,将这些相机的输出组合起来并直接映射到屏幕上(我在这里使用的是 GLSL)。

该过程运行良好,但我意识到一个小问题:我创建的每个 RTT 相机都会创建一个与屏幕输出尺寸相同的纹理。也就是说,如果我的视口(viewport)大小为 1024x1024,即使几何体占据屏幕的 256x256 部分,每个 RTT 相机也会在 1024x1024 纹理中渲染 256x256 几何体。

解决方案似乎相当简单 - 调整 RTT 相机纹理大小以匹配几何图形占据的实际屏幕区域,但我不确定该怎么做。也就是说,我如何(例如)确定一个几何体占据了屏幕的 256x256 区域,以便我可以相应地将 RTT 相机的输出纹理设置为 256x256 像素?

我使用的 API (OpenSceneGraph) 使用轴对齐的边界框,所以我在那里运气不好..

想法?

最佳答案

为什么运气不好?不能使用轴对齐的边界框来计算面积吗?

我的想法:

  • 获取边界框的 8 个角点并将它们投影到相机的图像平面上。
  • 对于图像平面上生成的 2d 点,您可以再次确定轴对齐的 2d 边界框

这应该是几何体可以占据的空间的正确上限。

关于c++ - 优化渲染到纹理过程,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10873642/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com