gpt4 book ai didi

optimization - 两个纹理的非幂和内存消耗优化

转载 作者:行者123 更新时间:2023-12-03 17:24:05 24 4
gpt4 key购买 nike

我在某处读到 XNA 框架将纹理放大到最接近的 2 次幂,然后将其发送到 VRAM,如果它确实是如何工作的,则在加载许多小(在我的情况下为 150×150)纹理时可能效率不高,其中本质上是浪费内存,因为放大导致未使用的纹理数据。

那么是否有一些自动优化,或者我应该自己实现它,比如加载所有纹理,找出“放大”空间足够大以容纳其他纹理并将其放置在那里,记住 Sprite 位置,从而使用一个纹理而不是两个(或更多)?

为每个纹理手动执行此操作并不总是很方便(在单个纹理中放置许多小 Sprite ),因为以后很难使用(本质上它变得不那么以人为本),并且并不总是需要一个 Sprite 游戏的某个级别,所以如果 Sprite 在不同的组合中会更好,所以它应该自动完成。

最佳答案

有一些工具可用于创建所谓的“ Sprite 表”或“纹理图集”。 This XNA sample作为内容管道扩展的一部分为您执行此操作。

请注意,纹理填充仅发生在不支持非二次方纹理的设备上。例如,Windows Phone。现代 GPU 不会浪费内存。然而,这仍然是一个有用的优化,可以让你合并成批的 Sprite (详见 this answer)。

关于optimization - 两个纹理的非幂和内存消耗优化,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15089802/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com