- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我怀疑这是我对绑定(bind)含义的误解,但我对我在这里做错的事情感到茫然。我已将相关代码放在帖子末尾。
我正在致力于在 GPU 上实现数值算法。具体来说,我正在关注this example来自英伟达。特别是,该算法的一部分使用迭代技术,其中一次迭代的输出用作下一次迭代的输入。在此处做出决定时,我会专门查看第 38.3.1 节。
现在,对我来说,很多都是在学习 WebGL/OpenGL/GLSL,所以我不会直接投入。此时,我只是尝试通过在一个着色器中渲染图像来直接模拟一次“迭代” (只是统一的颜色)到帧缓冲区,将该输出复制到另一个纹理,并将第二个纹理作为统一输入传递到第二个着色器。然后,第二个着色器应向图像添加高斯点,并再次渲染到与第一个着色器相同的帧缓冲区(覆盖原始着色器)。然后,第二个着色器的输出再次复制到辅助纹理,该纹理作为统一输入传递到最终着色器,将所有内容渲染到屏幕上。
我的问题:如果我仅运行第一个或第二个着色器,我会在屏幕上看到该阶段的预期输出。这告诉我着色器正在运行,并且我正在按预期复制内容(因为最终渲染到屏幕可以看到复制的纹理)。但是,如果我运行这两个步骤,我只能在屏幕上单独获得第二个着色器的输出(就好像第一个着色器的输入仅为 0),这告诉我,由于某种原因,第二个着色器中的统一输入没有得到我从一开始就期望什么。
所有片段着色器都使用相同的顶点着色器,该顶点着色器仅接收解决方案域的边界并传递出位置的变化 vec2。
相关代码如下。为了简洁起见,我没有包含着色器设置,但基本上我创建了程序,然后获取统一/属性位置并将它们存储在类似命名的属性中,然后激活属性。我还检查了程序是否已成功链接。
最后一点:运行时我在控制台中没有看到任何警告或错误。
帧缓冲区设置:
function initFramebuffers() {
console.log("Creating framebuffer for flow field");
flowFramebuffer = gl.createFramebuffer();
gl.bindFramebuffer(gl.FRAMEBUFFER, flowFramebuffer);
frontTex = gl.createTexture();
gl.activeTexture(gl.TEXTURE1);
gl.bindTexture(gl.TEXTURE_2D, frontTex);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MIN_FILTER, gl.LINEAR);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MAG_FILTER, gl.LINEAR);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_S, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_T, gl.CLAMP_TO_EDGE);
gl.texImage2D(gl.TEXTURE_2D, 0, gl.RGBA, nx, ny, 0, gl.RGBA, gl.UNSIGNED_BYTE, null);
gl.framebufferTexture2D(gl.FRAMEBUFFER, gl.COLOR_ATTACHMENT0, gl.TEXTURE_2D, frontTex, 0);
// Start by zeroing out the flow field
gl.clearColor(0.0,0.0,0.0,0.0);
gl.clear(gl.COLOR_BUFFER_BIT | gl.DEPTH_BUFFER_BIT);
// Now create the texture for the flow field at the last step
backTex = gl.createTexture();
gl.activeTexture(gl.TEXTURE2);
gl.bindTexture(gl.TEXTURE_2D, backTex);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MIN_FILTER, gl.LINEAR);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MAG_FILTER, gl.LINEAR);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_S, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_T, gl.CLAMP_TO_EDGE);
gl.texImage2D(gl.TEXTURE_2D, 0, gl.RGBA, nx, ny, 0, gl.RGBA, gl.UNSIGNED_BYTE, null);
gl.copyTexImage2D(gl.TEXTURE_2D, 0, gl.RGBA, 0, 0, nx, ny, 0); // Copy the blank flow field in to our back texture
gl.bindFramebuffer(gl.FRAMEBUFFER, null);
}
第一阶段:
function stage1() {
console.log("Stage 1...");
gl.useProgram(1Program);
gl.bindFramebuffer(gl.FRAMEBUFFER,flowFramebuffer);
gl.activeTexture(gl.TEXTURE1); // We're going to draw this result to texture unit 1
gl.viewport(0,0, nx, ny);
gl.bindBuffer(gl.ARRAY_BUFFER, solutionGrid);
gl.vertexAttribPointer(stage1program.vertexPositionAttribute, solutionGrid.itemSize, gl.FLOAT, false, 0, 0);
gl.uniform1i(stage1program.flowVelUniform, 2); // Use the texture in unit2 as the flowField uniform (unit1 is our current/updating texture)
gl.uniform1i(stage1program.inFieldUniform, 2); // We're self-advecting, so use the same texture here.
gl.uniform1f(stage1program.dtUniform, 1.0/60.0); // 60 frames per second
gl.drawArrays(gl.TRIANGLES, 0, solutionGrid.numItems); // Solve
gl.activeTexture(gl.TEXTURE2); // Now copy the framebuffer in to texture2
gl.copyTexImage2D(gl.TEXTURE_2D, 0, gl.RGBA, 0, 0, nx, ny, 0);
gl.bindFramebuffer(gl.FRAMEBUFFER,null);
}
阶段 1 的着色器:
precision mediump float;
uniform float dt;
uniform sampler2D toAdvect; // Input dye field, varies 0 (no dye) to 1 (filled with dye)
uniform sampler2D flowField; // Flow field from the flow calculation step
varying vec2 vertexOut; // The location of the vertex [-1,1]
vec2 simToTextureSpace(vec2 vertex) {
return 0.5*(vertex+1.0);
}
void main() {
gl_FragColor = vec4(0.0,0.4,0.6,1.0);
}
第二阶段:
function stage2() {
gl.useProgram(stage2program);
gl.bindFramebuffer(gl.FRAMEBUFFER,flowFramebuffer);
gl.activeTexture(gl.TEXTURE1); // We're going to draw this result to texture unit 1
gl.viewport(0,0, nx, ny);
gl.bindBuffer(gl.ARRAY_BUFFER, solutionGrid);
gl.vertexAttribPointer(stage2program.vertexPositionAttribute, solutionGrid.itemSize, gl.FLOAT, false, 0, 0);
gl.uniform1i(stage2program.flowVelUniform, 2); // Use the texture in unit2 as the flowField uniform (unit1 is our current/updating texture)
gl.uniform1f(stage2program.dtUniform, 1.0/60.0); // 60 frames per second
gl.drawArrays(gl.TRIANGLES, 0, solutionGrid.numItems); // Solve
gl.activeTexture(gl.TEXTURE2); // Now copy out
gl.copyTexImage2D(gl.TEXTURE_2D, 0, gl.RGBA, 0, 0, nx, ny, 0);
gl.bindFramebuffer(gl.FRAMEBUFFER,null);
}
第 2 阶段着色器:
precision mediump float;
uniform float dt;
uniform sampler2D flowField; // Flow field from the flow calculation step
varying vec2 vertexOut; // The location of the vertex [-1,1]
vec2 simToTextureSpace(vec2 vertex) {
return 0.5*(vertex+1.0);
}
void main() {
vec2 texPosition = simToTextureSpace(vertexOut);
vec4 last = texture2D(flowField, texPosition);
float radius2 = pow(vertexOut.x,2.0)+pow(vertexOut.y,2.0);
gl_FragColor = last+vec4(60.0*dt*exp(-radius2/0.001),0.0,0.0,1.0);
}
渲染到屏幕:
function drawScene() {
// console.log("Drawing scene");
gl.useProgram(visualProgram);
gl.activeTexture(gl.TEXTURE0);
gl.viewport(0,0, gl.viewportWidth, gl.viewportHeight);
gl.clearColor(0.0,0.0,1.0,1.0); // Clear to blue
gl.clear(gl.COLOR_BUFFER_BIT | gl.DEPTH_BUFFER_BIT);
gl.bindBuffer(gl.ARRAY_BUFFER, solutionGrid); // Just reuse the coordinates from the fluid position buffer
gl.vertexAttribPointer(visualProgram.vertexPositionAttribute, solutionGrid.itemSize, gl.FLOAT, false, 0, 0);
gl.uniform1i(visualProgram.inFieldUniform, 2);
gl.drawArrays(gl.TRIANGLES, 0, solutionGrid.numItems);
}
渲染到屏幕着色器:
precision mediump float;
uniform sampler2D inField; // field to draw
varying vec2 vertexOut; // The location of the vertex [-1,1]
vec2 simToTextureSpace(vec2 vertex) {
return 0.5*(vertex+1.0);
}
void main() {
vec2 texPosition = simToTextureSpace(vertexOut);
vec4 drawField = texture2D(inField,texPosition);
gl_FragColor = drawField;
}
调用顺序:
// Setup shaders, initFramebuffers(), etc
//console.log("Drawing...");
stage1();
stage2();
drawScene();
最佳答案
事实证明,我在某个地方犯了一个错误,在引用统一输入时使用了略有不同的对象名称。即E
myObject.uniformVal
对比
myObject.uniformVel
这肯定是完全巧合的,但是所显示的错误并没有导致抛出实际的错误。它现在正在工作,所以如果其他人遇到类似的问题 - 检查你的参数名称:)
关于javascript - WebGL:使用两个着色器,第一个着色器的输出作为第二个着色器的输入,只能看到第二个着色器的输出,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51936543/
我正在使用 OUTFILE 命令,但由于权限问题和安全风险,我想将 shell 的输出转储到文件中,但出现了一些错误。我试过的 #This is a simple shell to connect t
我刚刚开始学习 Java,我想克服在尝试为这个“问题”创建 Java 程序时出现的障碍。这是我必须创建一个程序来解决的问题: Tandy 喜欢分发糖果,但只有 n 颗糖果。对于她给第 i 个糖果的人,
你好,我想知道我是否可以得到一些帮助来解决我在 C++ 中打印出 vector 内容的问题 我试图以特定顺序在一个或两个函数调用中输出一个类的所有变量。但是我在遍历 vector 时收到一个奇怪的错误
我正在将 intellij (2019.1.1) 用于 java gradle (5.4.1) 项目,并使用 lombok (1.18.6) 来自动生成代码。 Intellij 将生成的源放在 out
编辑:在与 guest271314 交流后,我意识到问题的措辞(在我的问题正文中)可能具有误导性。我保留了旧版本并更好地改写了新版本 背景: 从远程服务器获取 JSON 时,响应 header 包含一
我的问题可能有点令人困惑。我遇到的问题是我正在使用来自 Java 的 StoredProcedureCall 调用过程,例如: StoredProcedureCall call = new Store
在我使用的一些IDL中,我注意到在方法中标记返回值有2个约定-[in, out]和[out, retval]。 当存在多个返回值时,似乎使用了[in, out],例如: HRESULT MyMetho
当我查看 gar -h 的帮助输出时,它告诉我: [...] gar: supported targets: elf64-x86-64 elf32-i386 a.out-i386-linux [...
我想循环遍历一个列表,并以 HTML 格式打印其中的一部分,以代码格式打印其中的一部分。所以更准确地说:我想产生与这相同的输出 1 is a great number 2 is a great
我有下面的tekton管道,并尝试在Google Cloud上运行。集群角色绑定。集群角色。该服务帐户具有以下权限。。例外。不确定需要为服务帐户设置什么权限。
当尝试从 make 过滤非常长的输出以获取特定警告或错误消息时,第一个想法是这样的: $ make | grep -i 'warning: someone set up us the bomb' 然而
我正在创建一个抽象工具类,该类对另一组外部类(不受我控制)进行操作。外部类在某些接口(interface)点概念上相似,但访问它们相似属性的语法不同。它们还具有不同的语法来应用工具操作的结果。我创建了
这个问题已经有答案了: What do numbers starting with 0 mean in python? (9 个回答) 已关闭 7 年前。 在我的代码中使用按位与运算符 (&) 时,我
我写了这段代码来解析输入文件中的行输入格式:电影 ID 可以有多个条目,所以我们应该计算平均值输出:**没有重复(这是问题所在) import re f = open("ratings2.txt",
我需要处理超过 1000 万个光谱数据集。数据结构如下:大约有 1000 个 .fits(.fits 是某种数据存储格式)文件,每个文件包含大约 600-1000 个光谱,其中每个光谱中有大约 450
我编写了一个简单的 C 程序,它读取一个文件并生成一个包含每个单词及其出现频率的表格。 该程序有效,我已经能够在 Linux 上运行的终端中获得显示的输出,但是,我不确定如何获得生成的显示以生成包含词
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
1.普通的输出: print(str)#str是任意一个字符串,数字··· 2.格式化输出: ?
我无法让 logstash 正常工作。 Basic logstash Example作品。但后来我与 Advanced Pipeline Example 作斗争.也许这也可能是 Elasticsear
这是我想要做的: 我想让用户给我的程序一些声音数据(通过麦克风输入),然后保持 250 毫秒,然后通过扬声器输出。 我已经使用 Java Sound API 做到了这一点。问题是它有点慢。从发出声音到
我是一名优秀的程序员,十分优秀!