gpt4 book ai didi

opengl - 如何为 GPGPU 扩展顶点着色器功能

转载 作者:行者123 更新时间:2023-12-05 06:45:19 25 4
gpt4 key购买 nike

我正在尝试在 GLSL 上实现 Scrypt 哈希器(用于 LTC 矿工)(不要问我为什么)。

而且,实际上,我坚持使用 HMAC SHA-256 算法。尽管我已经正确实现了 SHA-256(它为输入重新调整了正确的散列),但当我添加最后一步(散列与 oKey 连接的先前散列)时,片段着色器停止编译。

着色器不能执行超过三轮的 SHA-256。它只是停止编译。限制是什么?它不使用太多内存,总共 174 个 vec2 对象。看起来,它与内存无关,因为任何额外的 SHA256 轮次都不需要新的内存。看起来,它与视口(viewport)大小无关。它停止在 1x1 和 1x128 视口(viewport)上工作。

我已经开始在 WebGL 上做矿工,但在限制出现后,我试图在全功能 OpenGL 上的 Qt 中运行相同的着色器。结果,桌面 OpenGL 允许比 WebGL 中的 OpenGL ES 少一轮 SHA256(为什么?)。

忘了说。着色器在链接阶段失败。着色器本身编译良好,但程序链接失败。

我不使用任何纹理、任何扩展、缓慢的东西等。只是简单的正方形(4 个 vec2 vertecies)和片段着色器的几个制服。输入数据只有 80 个字节,片段着色器的结果是二进制的(黑色或白色),因此该任务非常符合 GLSL 原则。

我的视频卡是 Radeon HD7970,具有大量 VRAM,能够容纳数百个 scrypt 线程(scrypt 每个哈希使用 128kB,但我不能仅实现 HMAC-SHA-256)。我的卡支持 OpenGL 4.4。

我是 OpenGL 的新手,可能理解有误。我知道片段着色器分别为每个像素运行,但如果我有 1x128 视口(viewport),则只使用 128x348 字节。片段着色器的限制在哪里。

这是我用来让您了解我如何尝试解决问题的常用代码。

uniform vec2 base_nonce[2];
uniform vec2 header[20]; /* Header of the block */
uniform vec2 H[8];
uniform vec2 K[64];

void sha256_round(inout vec2 w[64], inout vec2 t[8], inout vec2 hash[8]) {
for (int i = 0; i < 64; i++) {
if( i > 15 ) {
w[i] = blend(w[i-16], w[i-15], w[i-7], w[i-2]);
}

_s0 = e0(t[0]);
_maj = maj(t[0],t[1],t[2]);
_t2 = safe_add(_s0, _maj);
_s1 = e1(t[4]);
_ch = ch(t[4], t[5], t[6]);
_t1 = safe_add(safe_add(safe_add(safe_add(t[7], _s1), _ch), K[i]), w[i]);

t[7] = t[6]; t[6] = t[5]; t[5] = t[4];
t[4] = safe_add(t[3], _t1);
t[3] = t[2]; t[2] = t[1]; t[1] = t[0];
t[0] = safe_add(_t1, _t2);
}
for (int i = 0; i < 8; i++) {
hash[i] = safe_add(t[i], hash[i]);
t[i] = hash[i];
}
}

void main () {
vec2 key_hash[8]; /* Our SHA-256 hash */
vec2 i_key[16];
vec2 i_key_hash[8];
vec2 o_key[16];

vec2 nonced_header[20]; /* Header with nonce */
set_nonce_to_header(nonced_header);

vec2 P[32]; /* Padded SHA-256 message */
pad_the_header(P, nonced_header);

/* Hash HMAC secret key */
sha256(P, key_hash);

/* Make iKey and oKey */
for(int i = 0; i < 16; i++) {
if (i < 8) {
i_key[i] = xor(key_hash[i], vec2(Ox3636, Ox3636));
o_key[i] = xor(key_hash[i], vec2(Ox5c5c, Ox5c5c));
} else {
i_key[i] = vec2(Ox3636, Ox3636);
o_key[i] = vec2(Ox5c5c, Ox5c5c);
}
}

/* SHA256 hash of iKey */

for (int i = 0; i < 8; i++) {
i_key_hash[i] = H[i];
t[i] = i_key_hash[i];
}

for (int i = 0; i < 16; i++) { w[i] = i_key[i]; }
sha256_round(w, t, i_key_hash);

gl_FragColor = toRGBA(i_key_hash[0]);
}

我可以使用哪些解决方案来改善这种情况?在 OpenGL ES 3.1 中,OpenGL 4.4 中有什么很酷的东西吗?甚至有可能进行这样的计算并在片段着色器中保留这么多(128kB)吗?顶点着色器的限制是什么?我可以在顶点着色器而不是片段上做同样的事情吗?

最佳答案

我试着回答我自己的问题。

着色器是一个小型处理器,具有有限的寄存器和缓存内存。此外,指令执行也有限制。因此,将所有内容都装入一个片段着色器的整个架构是错误的。

换句话说,您可以在渲染期间更改着色器程序数十或数百次。这是正常做法。

有必要将大的计算分成更小的部分并分别渲染。使用渲染到纹理保存您的工作。

由于 webgl statistic ,96.5% 的客户端有 MAX_TEXTURE_SIZE eq 4096。它给你 32 兆字节的内存。可以包含256个scrypt计算线程的草稿数据。

关于opengl - 如何为 GPGPU 扩展顶点着色器功能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25044582/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com