gpt4 book ai didi

cuda - 为什么只能在计算能力为 2.0+ 的 CUDA GPU 设备上设置堆栈大小?

转载 作者:行者123 更新时间:2023-12-04 23:10:45 25 4
gpt4 key购买 nike

我想我有几个与调用堆栈相关的问题,但我的主要问题是,

  • “为什么只能在计算能力为 2.0+ 的设备上设置堆栈大小?”

  • 此外,为什么我只能使用 nvidia Nsight 查看计算能力为 2.0 及以上的设备的调用堆栈?允许他们这样做的 2.0+ 设备有什么特别之处,但不是 1.x 设备?

我知道这是一个非常宽泛的问题,但如果您对上述问题的答案有深入的了解,甚至是对一般 CUDA 设备上的堆栈调用的信息,我们将不胜感激。

最佳答案

较旧的 1.x 设备无法实现堆栈,因此允许它没有意义。至少 2.0+ 设备能够实现堆栈的一个原因是因为它们具有将通用指针作为操作数的指令。这意味着编译器不需要在每个指针流经程序时跟踪它的类型(共享、本地或全局)——硬件可以自行判断。这使得实现单独的编译(使用堆栈和 ABI)成为可能,因为编译器不需要查看整个程序来跟踪每个指针的类型。

关于cuda - 为什么只能在计算能力为 2.0+ 的 CUDA GPU 设备上设置堆栈大小?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18476864/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com