- Java锁的逻辑(结合对象头和ObjectMonitor)
- 还在用饼状图?来瞧瞧这些炫酷的百分比可视化新图形(附代码实现)⛵
- 自动注册实体类到EntityFrameworkCore上下文,并适配ABP及ABPVNext
- 基于Sklearn机器学习代码实战
还是比较节省性能的,这个还是包含了生成测试数据的性能,实际应用如果是直接通信获得数据应该还能少几毫秒吧! 。
const size = { width: 1400, height: 600 };
const sourceArr = new Float32Array(size.width * size.height).fill(-999.0);
const matrix = []; // 一个二维数组
setInterval(() => {
const res = [];
// TODO 按某些规则生成一行数据放入res
matrix.unshift(res);
if (matrix.length > size.height) {
matrix.pop();
}
flatten2dArrayTo(matrix, sourceArr);
}, 20);
// 二维数组转一维数组
const flatten2dArrayTo = (array, target) => {
let offset = 0;
for (let y = 0; y < array.length; y += 1) {
target.set(array[y], offset);
offset += array[y].length;
}
};
// ...实际给GL使用再将Float32Array转为Uint8Array
const d = sourceArr;
new Uint8Array(d.buffer);
// ...
const drawDance = (palette, data, width, height, l) => {
if (canRef.current) {
const gl = canRef.current.getContext?.('webgl');
if (gl) {
// 这个暂时没用
const lengthHandle = gl.getUniformLocation(gl.program, 'length');
gl.uniform1f(lengthHandle, l);
// 纹理0:一个256*2的调色板
const paletteLoc = gl.getUniformLocation(gl.program, 'u_Palette');
gl.uniform1i(paletteLoc, 0);
// 纹理1:Float32Array转为Uint8Array的数据纹理
const samplerLoc = gl.getUniformLocation(gl.program, 'u_Sampler');
gl.uniform1i(samplerLoc, 1);
// 纹理0放入
gl.activeTexture(gl.TEXTURE0);
const texture1 = gl.createTexture();
gl.bindTexture(gl.TEXTURE_2D, texture1);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_S, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_T, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MIN_FILTER, gl.NEAREST);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MAG_FILTER, gl.NEAREST);
gl.texImage2D(gl.TEXTURE_2D, 0, gl.RGB, 256 * 2, 1, 0, gl.RGB, gl.UNSIGNED_BYTE, palette);
// 纹理1放入
gl.activeTexture(gl.TEXTURE1);
const texture2 = gl.createTexture();
gl.bindTexture(gl.TEXTURE_2D, texture2);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_S, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_WRAP_T, gl.CLAMP_TO_EDGE);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MIN_FILTER, gl.NEAREST);
gl.texParameteri(gl.TEXTURE_2D, gl.TEXTURE_MAG_FILTER, gl.NEAREST);
gl.texImage2D(gl.TEXTURE_2D, 0, gl.RGBA, width, height, 0, gl.RGBA, gl.UNSIGNED_BYTE, bvbv(data));
// canvas那么大的一个网格
drawBuffer(gl, [-1.0, 1.0, -1.0, -1.0, 1.0, 1.0, 1.0, -1.0], 'a_Position');
// 释放纹理
gl.deleteTexture(texture1);
gl.deleteTexture(texture2);
}
}
};
const onResize = useCallback(() => {
const { offsetHeight: height, offsetWidth: width } = containerRef.current || {};
const can = React.createElement('canvas', {
width,
height,
style: { background: '#90202020' },
ref: canRef,
});
containerRef.current && render(can, containerRef.current);
const gl = canRef.current.getContext('webgl');
if (gl) {
// 重新设置gl视口,gl的Oxy在canvas的中心
initShaders(gl, VSHADER_SOURCE, FSHADER_SOURCE);
gl.viewport(0, 0, width, height);
const widthHandle = gl.getUniformLocation(gl.program, 'width');
const heightHandle = gl.getUniformLocation(gl.program, 'height');
gl.uniform1f(widthHandle, width);
gl.uniform1f(heightHandle, height);
// 缩放相关的不重要
const x1H = gl.getUniformLocation(gl.program, 'x1');
const x2H = gl.getUniformLocation(gl.program, 'x2');
gl.uniform1f(x1H, 0);
gl.uniform1f(x2H, width);
}
}, []);
precision mediump float;
uniform float width;
uniform float height;
uniform float length;
uniform float x1;
uniform float x2;
uniform sampler2D u_Palette;
uniform sampler2D u_Sampler;
vec2 reslution =vec2(width,height);
highp float decode32(highp vec4 rgba) {
highp float Sign = 1.0 - step(128.0,rgba[0])*2.0;
highp float Exponent = 2.0 * mod(rgba[0],128.0) + step(128.0,rgba[1]) - 127.0;
highp float Mantissa = mod(rgba[1],128.0)*65536.0 + rgba[2]*256.0 +rgba[3] + float(0x800000);
highp float Result = Sign * exp2(Exponent) * (Mantissa * exp2(-23.0 ));
return Result;
}
void main(){
// gl_FragColor=vec4(gl_FragCoord.xyx/reslution.xyx,1.0);
if(gl_FragCoord.y < 10.0){
// 简单画个调色板示意图
gl_FragColor=texture2D(u_Palette,gl_FragCoord.xy/reslution.xy);
}
else{
// 绘制数据点
float xx=x1+gl_FragCoord.x/reslution.x*(x2-x1);
vec2 pos = vec2(xx,reslution.y-gl_FragCoord.y)/vec2(reslution.x,reslution.y);
vec4 color=texture2D(u_Sampler,pos)*255.0;
float val=decode32(color.abgr);
if(val < -99.0){
gl_FragColor=vec4(0.0,0.0,0.0,1.0);
}
else{
gl_FragColor=texture2D(u_Palette,vec2((val+20.0)/100.0,1.0));
}
}
}
基本上述代码过程就能实现了;直接看源码吧: ctrlcv->AudioDance8 ctrlCV工程师 。
最后此篇关于一个简单利用WebGL绘制频谱瀑布图示例的文章就讲到这里了,如果你想了解更多关于一个简单利用WebGL绘制频谱瀑布图示例的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
一些网站说你应该通过以下方式初始化 webgl: var gl = c.getContext("webgl") || c.getContext("experimental-webgl"); if (!
我一直在寻找有关 WebGL 的信息以及可以分配用于渲染的最大纹理数/内存量。这显然是特定于硬件/设备的,因此我正在寻找一种智能处理纹理的方法。 我目前有 512x512 RGBA8 格式的纹理。一个
我想知道是否可以利用WebGL进行任何异步调用? 我研究了Spec v1和Spec v2,他们什么都没提及。在V2中,有一种WebGL查询机制,我认为这不是我想要的。 在网络上进行搜索并没有确定的定义
我正在参与一个 webgl 项目。 当我调用 gl.DrawElements 时,会显示错误“范围超出缓冲区范围”。 我肯定确保我传递了正确的缓冲区长度或偏移量。但是,仍然显示错误。 我认为有几个原因
我知道 WebGL 中有 8 个纹理的限制。 我的问题是,8 是全局限制还是每个着色器/程序明智的? 如果它是每个着色器/程序明智的限制,这是否意味着,一旦我将纹理加载到一个着色器的制服上,我就可以开
我一直在使用 Haxe + Away3D 编写一个小型行星生成器,并将其部署到 HTML5/WebGL。但是在渲染云时我遇到了一个奇怪的问题。我有行星网格,然后云网格在相同位置稍大一些。 我正在使用柏
关闭。这个问题是opinion-based 。目前不接受答案。 想要改进这个问题吗?更新问题,以便 editing this post 可以用事实和引文来回答它。 . 已关闭 8 年前。 Improv
在 OpenGL 中,深度缓冲区值是根据场景的近和远裁剪平面计算的。 (引用:Getting the true z value from the depth buffer) 这在 WebGL 中是如何
简单的问题,但我无法在任何地方的规范中找到答案。我可能在某处遗漏了明显的答案。 我可以在 WebGL 片段着色器中同时使用多少个纹理?如果它是可变的,那么假设 PC 使用的合理数字是多少? (对移动不
我有一个渲染场景的帧缓冲区,现在我想将它渲染到“全屏”四边形。如何设置我的相机以及我应该在我的顶点着色器中放置什么以便将帧缓冲区的纹理渲染到整个屏幕。 我试过像这样创建一个全屏四边形 var gl =
我正在阅读 here 的教程。 var gl; function initGL() { // Get A WebGL context var canvas = document.getEle
就目前而言,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引起辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the he
我正在学习 WebGL,我能感觉到我的速度很慢,因为我很难调试我的代码。是否有任何扩展或工具可以帮助我知道缓冲区、属性指针、矩阵等的值。 我在谷歌上搜索并了解了 chrome 扩展程序 spector
我可以在某处找到任何文档来记录 WebGL 调用所需的先决条件吗? 我已经对 WebGL 基础有了相当深入的了解,但现在我正在创建自己的“框架”,并且我正在更深入地了解。 例如, enableVert
关闭。这个问题是opinion-based .它目前不接受答案。 想改善这个问题吗?更新问题,以便可以通过 editing this post 用事实和引文回答问题. 7年前关闭。 Improve t
我有兴趣在 webgl 中执行一些密集计算,所以它在 GPU 上运行。 大多数文档都讨论了如何渲染图形。 我正在完成非常简单的任务:对于给定的图像,将其转换为灰度,并找到局部最大值的坐标(比其邻居更亮
我目前在 WebGL 中使用这个片段着色器来对照片纹理应用高光/阴影调整。 着色器本身是直接从优秀的 GPUImage 中拉出来的适用于 iOS 的库。 uniform sampler2D input
我是 webgl 的新手。我正在尝试设置时间统一,因此我可以随着时间的推移更改片段着色器的输出。我认为这实现起来相当简单,但我正在努力。我知道这两种方法可能涉及: https://developer.
我正在尝试使用两个 Canvas 并排绘制相同的 WebGL 场景。是否可以?到目前为止,我还没有走运。 思路如下: 我加载几何 我设置了两个gl上下文,每幅 Canvas 一个 我调用 drawEl
我正在学习 WebGL 并尝试显示一个球体。没有纹理,只有每个顶点着色,但我在 Opera 和 Chrome 中收到以下错误消息:“[.WebGLRenderingContext]GL 错误:GL_I
我是一名优秀的程序员,十分优秀!