gpt4 book ai didi

c++ - OpenGL 计算着色器 - glDispatchCompue() 不运行

转载 作者:太空宇宙 更新时间:2023-11-04 13:03:12 24 4
gpt4 key购买 nike

我目前正在使用 OpenGl 中的计算着色器,我的目标是通过一些修改从一个纹理渲染到另一个纹理。但是,我的计算着色器似乎对纹理根本没有任何影响。

创建计算着色器后,我执行以下操作

//Use the compute shader program
(*shaderPtr).useProgram();

//Get the uniform location for a uniform called "sourceTex"
//Then connect it to texture-unit 0
GLuint location = glGetUniformLocation((*shaderPtr).program, "sourceTex");
glUniform1i(location, 0);

//Bind buffers and call compute shader
this->bindAndCompute(bufferA, bufferB);

bindAndCompute() 函数如下所示,其目的是准备好两个缓冲区以供计算着色器访问,然后运行计算着色器。

bindAndCompute(GLuint sourceBuffer, GLuint targetBuffer){
glBindImageTexture(
0, //Always bind to slot 0
sourceBuffer,
0,
GL_FALSE,
0,
GL_READ_ONLY, //Only read from this texture
GL_RGB16F
);

glBindImageTexture(
1, //Always bind to slot 1
targetBuffer,
0,
GL_FALSE,
0,
GL_WRITE_ONLY, //Only write to this texture
GL_RGB16F
);

//this->height is currently 960
glDispatchCompute(1, this->height, 1); //Call upon shader

glMemoryBarrier(GL_SHADER_IMAGE_ACCESS_BARRIER_BIT);
}

最后,这里是计算着色器。我目前只尝试将其设置为使第二个纹理完全变白。

#version 440
#extension GL_ARB_compute_shader : enable
#extension GL_ARB_shader_image_load_store : enable

layout (rgba16, binding=0) uniform image2D sourceTex; //Textures bound to 0 and 1 resp. that are used to
layout (rgba16, binding=1) uniform image2D targetTex; //acquire texture and save changes made to texture

layout (local_size_x=960 , local_size_y=1 , local_size_z=1) in; //Local work-group size

void main(){

vec4 result; //Vec4 to store the value to be written

pxlPos = ivec2(gl_GlobalInvocationID.xy); //Get pxl-pos

/*
result = imageLoad(sourceTex, pxlPos);

...
*/

imageStore(targetTex, pxlPos, vec4(1.0f)); //Write white to texture
}

现在,当我启动时,bufferB 是空的。当我运行它时,我希望 bufferB 变成完全白色。然而,在这段代码之后 bufferB 仍然是空的。我的结论是要么

答:计算着色器不写入纹理

B: glDispatchCompute() 根本没有运行

但是,我没有收到任何错误,并且着色器确实按预期进行了编译。我已经检查过在通过绑定(bind) bufferA 渲染时我是否正确绑定(bind)了纹理,我已经知道它包含什么,然后运行 ​​bindAndCompute(bufferA, bufferA) 来打开 bufferA 白色。但是,bufferA 没有改变。所以,我无法弄清楚为什么我的计算着色器没有效果。如果有人对我可以尝试做的事情有任何想法,我们将不胜感激。

尾注:这是我在这个网站上提出的第一个问题。我试图只提供相关信息,但我仍然觉得它可能变得太多了。如果有关于如何改进问题结构的反馈,我们也欢迎。

-------------------------------------------- --------------------------

编辑:

我用 sourceBuffertargetBuffer 发送的纹理定义如下:

glGenTextures(1, *buffer);
glBindTexture(GL_TEXTURE_2D, *buffer);
glTexImage2D(
GL_TEXTURE_2D,
0,
GL_RGBA16F, //Internal format
this->width,
this->height,
0,
GL_RGBA, //Format read
GL_FLOAT, //Type of values in read format
NULL //source
);

glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);

最佳答案

您绑定(bind)的图像的图像格式与着色器中的图像格式不匹配。您绑定(bind)了一个 RGB16F(每个纹素 48 字节)纹理,但在着色器中声明它是 rgba16 格式(每个纹素 64 字节)。

格式必须根据给定的规则匹配 here .假设您在 OpenGL 中分配纹理,这意味着每个纹素的总大小必须匹配。另请注意,图像加载/存储不支持 3 channel 纹理(没有一些相当奇怪的异常(exception))。

作为旁注:如果纹理格式大小匹配,着色器将执行并写入。但是你写的可能是垃圾,因为你的纹理是 16 位浮点格式 (RGBA_16F) 而你告诉着色器它们是 16 位无符号标准化格式 (rgba16)。尽管这对计算着色器没有直接影响,但如果您回读纹理或通过采样器访问它或将 > 1.0f 或 < 0.0f 的数据写入其中,这确实很重要。如果您需要 16 位 float ,请在计算着色器中使用 rgba16f

关于c++ - OpenGL 计算着色器 - glDispatchCompue() 不运行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43396169/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com