- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我正在开发一个基于 2D 图层的应用程序,我想使用 WebGL 进行合成。这些层可能会相对于彼此移动,并且每个帧只有每个层的一小部分(矩形)可能会发生变化。但是,该矩形部分的宽度和高度可能会发生不可预测的变化。我想每层使用一个 Canvas (2D)和一个纹理,并且每个 Canvas 上的每一帧仅重绘已修改的图层部分,然后只需将该小区域上传到 GPU 以将相应部分更新为纹理,在 GPU 为我进行合成之前。但是我还没有找到一种有效的方法来将图像的一部分上传到纹理的一部分。似乎 texSubImage2D()
可以 更新纹理的一部分,但只需要完整的图像/ Canvas ,而且似乎无法指定矩形区域要使用的图像。
我已经想到了几种方法来做到这一点,但每种方法似乎都有明显的开销:
getImageData()
+ texSubImage2D()
仅将更改的部分上传到 GPU(将 Canvas 像素数据转换为 ImageData 的开销)texImage2D()
texSubImage2D()
发送它来更新相关的纹理(内存预留开销)那么,有没有办法为纹理指定图像/ Canvas 的一部分?像 texImagePart2D()
和 texSubImagePart2D
这样的东西,它们都接受另外四个参数,sourceX
, sourceY
, sourceWidth
和 sourceHeight
指定要使用的图像/ Canvas 的矩形区域?
最佳答案
很遗憾,没有办法上传 Canvas /图像的一部分。
WebGL 所基于的 OpenGL ES 2.0 没有提供这样做的方法。 OpenGL ES 3.0 确实提供了一种将源的较小矩形上传到纹理或纹理的一部分的方法,因此下一个版本的 WebGL 可能会提供该功能。
现在您可以有一个单独的 Canvas 来帮助上传。首先调整 Canvas 大小以匹配您要上传的部分
canvasForCopying.width = widthToCopy;
canvasForCopying.height= heightToCopy;
然后将要复制的 Canvas 部分复制到复制的 Canvas 上
canvasForCopying2DContext.drawImage(
srcCanvas, srcX, srcY, widthToCopy, heightToCopy,
0, 0, widthToCopy, heightToCopy);
然后使用它上传到您想要的纹理。
gl.texSubImage2D(gl.TEXTURE_2D, 0, destX, destY, gl.RGBA, gl.UNSIGNED_BYTE,
canvasForCopying);
getImageData
可能会更慢,因为浏览器必须调用 readPixels
来获取 图像数据,这会使图形管道停滞。浏览器不必为 drawImage
执行此操作。
至于为什么 texImage2D
有时比 texSubImage2D
快,这取决于驱动程序/GPU,但显然有时 texImage2D
可以使用 DMA 实现而 texSubImage2D
不能。 texImage2D
也可以通过创建新纹理并懒惰地丢弃旧纹理来进行流水线处理,而 texSubImage2D
则不能。
就我个人而言,我不会担心它,但如果你想检查一下,使用 texImage2D
和 texSubImage2D
上传数万个纹理的时间(不要只是时间一个是图形流水线)。如果您的纹理很大并且您要更新的部分小于纹理的 25%,您可能会发现 texSubImage2D
更快。至少那是我上次检查时发现的。大多数当前的驱动程序至少在以下方面进行了优化:如果您调用 texSubImage2D
并且碰巧要替换全部内容,它们将在内部调用 texImage2D
代码。
你可以做几件事
对于图像,您可以使用 fetch
和 ImageBitmap
将图像的一部分加载到 ImageBitamp
中,然后您可以上传那。获取图像的一部分的示例
在下面的示例中,我们调用了fetch
,然后获取了一个Blob
,并使用该blob 制作了一个只有一部分的ImageBitmap
图片。结果可以传递给 texImage2D
,但为了简洁起见,该示例仅在 2d Canvas 中使用它。
fetch('https://i.imgur.com/TSiyiJv.jpg', {mode: 'cors'})
.then((response) => {
if (!response.ok) {
throw response;
}
return response.blob();
})
.then((blob) => {
const x = 451;
const y = 453;
const width = 147;
const height = 156;
return createImageBitmap(blob, x, y, width, height);
}).then((bitmap) => {
useit(bitmap);
}).catch(function(e) {
console.error(e);
});
// -- just to show we got a portion of the image
function useit(bitmap) {
const ctx = document.createElement("canvas").getContext("2d");
document.body.appendChild(ctx.canvas);
ctx.drawImage(bitmap, 0, 0);
}
在 WebGL2 中有 gl.pixelStorei
设置
UNPACK_ROW_LENGTH//源的一行有多少像素 UNPACK_SKIP_ROWS//从源头开始跳过多少行 UNPACK_SKIP_PIXELS//从源左边跳过多少个像素
所以使用这 3 个设置,您可以告诉 webgl2 源更宽,但您想要的部分更小。您将较小的宽度传递给 texImage2D
,上面的 3 个设置有助于告诉 WebGL 如何去掉较小的部分以及从哪里开始。
关于javascript - WebGL:有没有一种有效的方法可以只上传图像/ Canvas 的一部分作为纹理?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20930466/
我有一个未定义数量的显示上下文,每个都将显示一个纹理。当我调用 glGenTextures 时,我会在所有显示上下文中返回相同的名称。这会起作用吗?即使它们具有相同的名称,它们仍会存储和显示不同的纹理
我在 SVG 中看到过:文本填充是图像而不是颜色;我一直想知道使用 CSS3 是否可以实现这样的事情。 我浏览了整个网络,到目前为止只找到了基本上将图像覆盖在文本上的解决方法(请参阅 this ,这对
我是 WebGL 的新手。 :)我知道顶点数据和纹理不应该经常更新,但是当它们确实发生变化时,首选哪个:- 通过调用 gl.deleteBuffer 销毁先前的缓冲区 (static_draw) 并创
我需要将 GL_RGBA32F 作为内部格式,但我在 OpenGL ES 实现中没有得到它。相反,我只得到 GL_FLOAT 作为纹理数据类型。 OES_texture_float 规范没有说明里面的
当我执行某些几何体的渲染时,我可以在控制台中看到此警告: THREE.WebGLRenderer: Texture is not power of two. Texture.minFilter sho
我正在尝试使用阴影贴图实现阴影,因此我需要将场景渲染到单独的帧缓冲区(纹理)。我无法让它正常工作,因此在剥离我的代码库后,我留下了一组相对简单的指令,这些指令应该将场景渲染到纹理,然后简单地渲染纹理。
我在 XNA 中使用带有自定义着色器的标准 .fbx 导入器。当我使用 BasicEffect 时,.fbx 模型被 UV 正确包裹并且纹理正确。但是,当我使用我的自定义效果时,我必须将纹理作为参数加
如果我创建一个 .PNG 1024 x 1024 的纹理并在中间画一个 124 x 124 的圆,它周围是空的,它使用的 RAM 量是否与我画一个 124 x 的圆一样124 x 124 空间上的 1
我试图在 Android 中绘制一个地球仪,为此我使用了 OpenGL。然而,为了让它更容易理解,我将从制作一个简单的 3D 立方体开始。我使用 Blender 创建我的 3D 对象(立方体),并在我
文本本身的背景图像层是否有任何 JS/CSS 解决方案? 示例 最佳答案 检查这个http://lea.verou.me/2012/05/text-masking-the-standards-way/
非功能代码: if sprite.texture == "texture" { (code) } 当 Sprite 具有特定纹理时,我正在尝试访问 Sprite 的纹理以运行代码。目前纹理仅在我的
我正在尝试学习适用于 iOS 的 SceneKit 并超越基本形状。我对纹理的工作原理有点困惑。在示例项目中,平面是一个网格,并对其应用了平面 png 纹理。你如何“告诉”纹理如何包裹到物体上?在 3
基本上, 这有效: var expl1 = new THREE.ImageUtils.loadTexture( 'images/explodes/expl1.png' ); this.material
我正在尝试将各种场景渲染为一组纹理,每个场景都有自己的纹理到应该绘制的位置...... 问题: 创建 512 个 FBO,每个 FBO 绑定(bind)了 512 个纹理,这有多糟糕。只使用一个 FB
我正在使用文本 protobuf 文件进行系统配置。 我遇到的一个问题是序列化的 protobuf 格式不支持注释。 有没有办法解决? 我说的是文本序列化数据格式,而不是方案定义。 这个问题是有人在某
我想将我的 3D 纹理的初始化从 CPU 移到 GPU。作为测试,我编写了一个着色器将所有体素设置为一个常数值,但纹理根本没有修改。我如何使它工作? 计算着色器: #version 430 layou
我可以像这样用 JavFX 制作一个矩形: Rectangle node2 = RectangleBuilder.create() .x(-100) .
我在 iPhone 上遇到了 openGL 问题,我确信一定有一个简单的解决方案! 当我加载纹理并显示它时,我得到了很多我认为所谓的“色带”,其中颜色,特别是渐变上的颜色,似乎会自动“优化”。 只是为
假设我有一个域类 class Profile{ String name byte[] logo } 和一个 Controller : class ImageController {
我正在开发一款使用 SDL 的 2D 游戏。由于某些系统的 CPU 较弱而 GPU 较强,因此除了普通的 SDL/软件之外,我还有一个使用 OpenGL 的渲染器后端。 渲染器界面的简化版本如下所示:
我是一名优秀的程序员,十分优秀!