gpt4 book ai didi

cuda - CUDA PTX 代码和寄存器内存的混淆

转载 作者:行者123 更新时间:2023-12-02 15:37:01 46 4
gpt4 key购买 nike

:)当我尝试管理内核资源时,我决定研究一下 PTX,但有一些事情我不明白。这是我编写的一个非常简单的内核:

__global__
void foo(float* out, float* in, uint32_t n)
{
uint32_t idx = blockIdx.x * blockDim.x + threadIdx.x;
uint32_t one = 5;
out[idx] = in[idx]+one;
}

然后我使用:nvcc --ptxas-options=-v -keep main.cu 编译它,并在控制台上得到了以下输出:

ptxas info    : 0 bytes gmem
ptxas info : Compiling entry function '_Z3fooPfS_j' for 'sm_10'
ptxas info : Used 2 registers, 36 bytes smem

生成的 ptx 如下:

    .entry _Z3fooPfS_j (
.param .u64 __cudaparm__Z3fooPfS_j_out,
.param .u64 __cudaparm__Z3fooPfS_j_in,
.param .u32 __cudaparm__Z3fooPfS_j_n)
{
.reg .u16 %rh<4>;
.reg .u32 %r<5>;
.reg .u64 %rd<8>;
.reg .f32 %f<5>;
.loc 15 17 0
$LDWbegin__Z3fooPfS_j:
.loc 15 21 0
mov.u16 %rh1, %ctaid.x;
mov.u16 %rh2, %ntid.x;
mul.wide.u16 %r1, %rh1, %rh2;
cvt.u32.u16 %r2, %tid.x;
add.u32 %r3, %r2, %r1;
cvt.u64.u32 %rd1, %r3;
mul.wide.u32 %rd2, %r3, 4;
ld.param.u64 %rd3, [__cudaparm__Z3fooPfS_j_in];
add.u64 %rd4, %rd3, %rd2;
ld.global.f32 %f1, [%rd4+0];
mov.f32 %f2, 0f40a00000; // 5
add.f32 %f3, %f1, %f2;
ld.param.u64 %rd5, [__cudaparm__Z3fooPfS_j_out];
add.u64 %rd6, %rd5, %rd2;
st.global.f32 [%rd6+0], %f3;
.loc 15 22 0
exit;
$LDWend__Z3fooPfS_j:
} // _Z3fooPfS_j

现在有些事情我不明白:

  • 根据 ptx 汇编,使用了 4+5+8+5=22 个寄存器。那为什么编译时会说used 2 registers呢?
  • 查看程序集,我发现 threadId、blockId 等的数据类型是 u16。这是CUDA规范中定义的吗?或者不同版本的 CUDA 驱动程序之间可能会有所不同?
  • 有人可以向我解释一下这一行:mul.wide.u16 %r1, %rh1, %rh2;吗? %r1u32,为什么使用wide而不是u32
  • 寄存器的名称是如何选择的?在我的花瓶中,我理解 %r 部分,但不理解 h,(null),d 部分。是根据数据类型长度来选择的吗?即:h 代表 16 位,null 代表 32 位,d 代表 64 位?
  • 如果我用这个 out[idx] = in[idx]; 替换内核的最后两行,那么当我编译程序时,它会说使用了 3 个寄存器!现在怎么可能使用更多的寄存器?

请忽略我的测试内核不检查数组索引是否越界的事实。

非常感谢。

最佳答案

PTX 是一种中间语言,旨在跨多个 GPU 架构进行移植。它由编译器组件 PTXAS 编译为最终的机器代码,也称为 SASS,适用于特定的体系结构。 nvcc 选项 -Xptxas -v使 PTXAS 报告有关生成的机器代码的各种统计信息,包括机器代码中使用的物理寄存器的数量。您可以通过使用 cuobjdump --dump-sass 反汇编来检查机器代码。 .

因此,PTX 代码中使用的寄存器数量没有任何意义,因为这些是虚拟寄存器。 CUDA 编译器以所谓的 SSA 形式生成 PTX 代码(静态单一赋值,请参阅 http://en.wikipedia.org/wiki/Static_single_assignment_form)。这基本上意味着写入的每个新结果都会分配一个新寄存器。

指令mul.wide PTX 规范中对此进行了描述,您可以在此处找到其当前版本 (3.1):http://docs.nvidia.com/cuda/parallel-thread-execution/index.html 。在您的示例代码中,后缀 .u16意味着它将两个无符号 16 位量相乘并返回无符号 32 位结果,即它计算源操作数的完整双角乘积。

PTX 中的虚拟寄存器是有类型的,但它们的名称可以自由选择,与类型无关。 CUDA 编译器似乎遵循某些约定(据我所知)没有记录,因为它们是内部实现工件。看看一堆PTX代码,很明显当前生成的寄存器名称编码类型信息,这样做可能是为了便于调试: p<num>用于谓词,r<num>对于 32 位整数,rd<num>对于 64 位整数,f<num>对于 32 位 float ,和 fd<num>对于 64 位 double 。您可以通过查看.reg轻松地亲自看到这一点。 PTX 代码中创建这些虚拟寄存器的指令。

关于cuda - CUDA PTX 代码和寄存器内存的混淆,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16975727/

46 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com