- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
因此,我需要的很简单:每次执行着色器(在每个像素上表示含义)时,我都需要计算1
和0
与resolution == originalImageResolution
的随机矩阵。怎么做这样的事情?
到目前为止,我为shadertoy随机矩阵创建了一个分辨率,该分辨率设置为15 x 15,因为当我尝试200 x 200之类的东西时,gpu会使chrome掉色,而实际上我需要完整的图像分辨率
#ifdef GL_ES
precision highp float;
#endif
uniform vec2 resolution;
uniform float time;
uniform sampler2D tex0;
float rand(vec2 co){
return fract(sin(dot(co.xy ,vec2(12.9898,78.233))) * (43758.5453+ time));
}
vec3 getOne(){
vec2 p = gl_FragCoord.xy / resolution.xy;
vec3 one;
for(int i=0;i<15;i++){
for(int j=0;j<15;j++){
if(rand(p)<=0.5)
one = (one.xyz + texture2D(tex0,vec2(j,i)).xyz)/2.0;
}
}
return one;
}
void main(void)
{
gl_FragColor = vec4(getOne(),1.0);
}
<languageVersion: 1.0;>
kernel random
< namespace : "Random";
vendor : "Kabumbus";
version : 3;
description : "not as random as needed, not as fast as needed"; >
{
input image4 src;
output float4 outputColor;
float rand(float2 co, float2 co2){
return fract(sin(dot(co.xy ,float2(12.9898,78.233))) * (43758.5453 + (co2.x + co2.y )));
}
float4 getOne(){
float4 one;
float2 r = outCoord();
for(int i=0;i<200;i++){
for(int j=0;j<200;j++){
if(rand(r, float2(i,j))>=1.0)
one = (one + sampleLinear(src,float2(j,i)))/2.0;
}
}
return one;
}
void
evaluatePixel()
{
float4 oc = getOne();
outputColor = oc;
}
}
NxM
。
NxM
矩阵-
0
s和
1
s。
1
矩阵中
NxM
s坐标的所有像素的
arithmetic mean
NxM
矩阵,它只是满足于和平(例如
1/3
)。因此,我对GPU施加了不必要的压力。但是,对更多数据进行测试并不总是一个坏主意。
最佳答案
感谢您添加更多详细信息以澄清您的问题。我的评论太长了,所以我要回答。将评论移到此处以使它们保持在一起:
抱歉,请放慢速度,但我想了解问题和目标。在您的GLSL示例中,我看不到正在生成矩阵。我看到单个vec3是通过对15 x 15纹理(矩阵)的单元格的随机选择(随时间变化)求和而生成的。并且针对每个像素重新计算vec3。然后,将vec3用作像素颜色。
因此,我不清楚您是要创建矩阵还是只为每个像素计算一个值。从某种意义上讲,后者是一个“矩阵”,但是计算200 x 200像素的简单随机值不会使图形驱动程序劳损。您还说过您想使用矩阵。所以我认为那不是你的意思。
我试图理解为什么您要一个矩阵-为所有像素保留一致的随机基础?如果是这样,您可以预先计算一个随机纹理,或者使用与rand()中相同的一致伪随机函数,只是不使用时间。您清楚地知道这一点,所以我想我仍然不明白目标。为什么要对每个像素从纹理中随机选择单元格呢?
我相信您的着色器崩溃的原因是您的main()
函数超出了其时间限制-对于单个像素还是整个像素集。每个像素调用rand()
40,000次(在200 * 200嵌套循环中)肯定可以解释这一点!
如果您有200 x 200像素,并且每个像素调用sin()40k次,则每帧160,000,000次调用。可怜的GPU!
我希望,如果我们对目标有更好的了解,我们将能够推荐一种更有效的方法来获得所需的效果。
更新。
(删除该部分,因为它是错误的。即使源矩阵中的许多单元可能各自对结果的贡献少于视觉上可检测的颜色量,但许多单元的总数仍可以对视觉上可检测的颜色量进行贡献。)
基于更新的问题的新更新。
好的,(这里想“大声”,这样您就可以检查我是否正确理解了……)由于您只需要一次随机的NxM值,因此实际上并不需要将它们存储在矩阵中。这些值可以简单地按需计算然后丢弃。这就是您上面的示例代码实际上未生成矩阵的原因。
这意味着我们无法避免每帧生成(NxM)^ 2个随机值,即每像素NxM个随机值,并且有NxM个像素。因此对于N = M = 200,每帧有1.6亿个随机值。
但是,我们仍然可以优化一些东西。
首先,由于您的随机值只需要一个位(您只需要一个布尔值答案即可决定是否将源纹理中的每个单元都包括到混合中),因此您可以使用便宜的伪随机数生成器。您使用的那个每次呼叫输出的随机数据要多于一位。例如,您可以调用与现在使用的PRNG函数相同的函数,但是要存储该值并从中提取32个随机位。或至少几个,具体取决于有多少随机性。另外,如果您具有扩展名GL_EXT_gpu_shader4(用于按位运算符),则可以使用something like this而不是使用sin()函数:
。
int LFSR_Rand_Gen(in int n)
{
// <<, ^ and & require GL_EXT_gpu_shader4.
n = (n << 13) ^ n;
return (n * (n*n*15731+789221) + 1376312589) & 0x7fffffff;
}
/2.0
)执行一次除法运算,这可能相对昂贵,除非编译器和GPU能够将其优化为位移(对于浮点运算有可能吗?)。如上所述,这也不会给出输入值的算术平均值。它将在后面的值上分配更多的权重,而在前面的值上分配很少的权重。解决方案是,对包含的值进行计数,并在循环完成后除以该计数一次。
关于opengl - OpenGL Pixel Shader:如何在每个像素上生成0和1的随机矩阵?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6269319/
在 OpenGL/ES 中,在实现渲染到纹理功能时,您必须小心,不要引起反馈循环(从正在写入的同一纹理中读取像素)。由于显而易见的原因,当您读取和写入纹理的相同像素时,行为是未定义的。但是,如果您正在
正如我们最终都知道的那样,规范是一回事,实现是另一回事。大多数错误是我们自己造成的,但有时情况并非如此。 我相信列出以下内容会很有用: GPU 驱动程序中当前已知的与最新版本的 OpenGL 和 GL
很难说出这里问的是什么。这个问题是模棱两可的、模糊的、不完整的、过于宽泛的或修辞的,无法以目前的形式得到合理的回答。为了帮助澄清这个问题以便可以重新打开它,visit the help center
我正在学习 OpenGL,非常想知道与显卡的交互如何。 我觉得了解它是如何在图形驱动程序中实现的,会让我了解 opengl 的完整内部结构(通过这个我可以知道哪些阶段/因素影响我对 opengl 性能
我正在尝试绘制到大于屏幕尺寸(即 320x480)的渲染缓冲区 (512x512)。 执行 glReadPixels 后,图像看起来是正确的,除非图像的尺寸超过屏幕尺寸——在本例中,超过 320 水平
我正在 Windows 中制作一个 3D 小行星游戏(使用 OpenGL 和 GLUT),您可以在其中穿过一堆障碍物在太空中移动并生存下来。我正在寻找一种方法来针对无聊的 bg 颜色选项设置图像背景。
如果我想要一个包含 100 个 10*10 像素 Sprite 的 Sprite 表,是否可以将它们全部排成一排来制作 1,000*10 像素纹理?还是 GPU 对不那么窄的纹理表现更好?这对性能有什
这个问题在这里已经有了答案: Rendering 2D sprites in a 3D world? (7 个答案) 关闭 6 年前。 我如何概念化让图像始终面对相机。我尝试将三角函数与 arcta
是否可以在 OpenGL 中增加缓冲区? 假设我想使用实例化渲染。每次在世界上生成一个新对象时,我都必须用实例化数据更新缓冲区。 在这种情况下,我有一个 3 个 float 的缓冲区 std::v
有人可以向我解释为什么下面的代码没有绘制任何东西,但如果我使用 GL_LINE_LOOP 它确实形成了一个闭环吗? glBegin(GL_POLYGON); for(int i = 0; i <= N
正如标题所说,OpenGL 中的渲染目标是什么?我对 OpenGL 很陌生,我看到的所有网站都让我很困惑。 它只是一个缓冲区,我在其中放置稍后将用于渲染的东西吗? 如果您能提供一个很好的引用来阅读它,
当使用 OpenGL 1.4 固定功能多纹理时,每个纹理阶段的输出在传递到下一个阶段之前是否都固定在 [0, 1]? spec说(第 153 页): If the value of TEXTURE_E
我比较了 2 个函数 openGL ES 和 openGL gvec4 texelFetchOffset(gsampler2DArray sampler, ivec3 P, int lod, ivec
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 10 年前。 Improve thi
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 6年前关闭。 Improve this qu
那么当你调用opengl函数时,比如glDraw或者gLBufferData,是否会导致程序线程停止等待GL完成调用呢? 如果不是,那么 GL 如何处理调用像 glDraw 这样的重要函数,然后立即更
我正在尝试实现级联阴影贴图,当我想访问我的视锥体的每个分区的相应深度纹理时,我遇到了一个错误。 更具体地说,当我想选择正确的阴影纹理时会出现我的问题,如果我尝试下面的代码,我会得到一个像 this 中
我想为OpenGL ES和OpenGL(Windows)使用相同的着色器源。为此,我想定义自定义数据类型并仅使用OpenGL ES函数。 一种方法是定义: #define highp #define
我尝试用 6 个位图映射立方体以实现天空盒效果。我的问题是一个纹理映射到立方体的每个面。我已经检查了 gDEBugger,在立方体纹理内存中我只有一个 图像(因为我尝试加载六个图像)。 代码准备纹理:
在 OpenGL 中偏移深度的最佳方法是什么?我目前每个多边形都有索引顶点属性,我将其传递给 OpenGL 中的顶点着色器。我的目标是在深度上偏移多边形,其中最高索引始终位于较低索引的前面。我目前有这
我是一名优秀的程序员,十分优秀!