gpt4 book ai didi

python - 为什么这个 numba.cuda 查找表实现失败?

转载 作者:太空宇宙 更新时间:2023-11-04 04:47:55 26 4
gpt4 key购买 nike

我正在尝试实现一个转换,该转换在其中的某个阶段有一个大小小于 1K 的查找表。在我看来,这应该不会对现代显卡造成问题。

但下面的代码因未知错误而失败:

from numba import cuda, vectorize
import numpy as np

tmp = np.random.uniform( 0, 100, 1000000 ).astype(np.int16)
tmp_device = cuda.to_device( tmp )

lut = np.arange(100).astype(np.float32) * 2.5
lut_device = cuda.to_device(lut)

@cuda.jit(device=True)
def lookup(x):
return lut[x]

@vectorize("float32(int16)", target="cuda")
def test_lookup(x):
return lookup(x)

test_lookup(tmp_device).copy_to_host() # <-- fails with cuMemAlloc returning UNKNOWN_CUDA_ERROR

我在做什么违背了 numba.cuda 的精神?

即使将 lookup 替换为以下简化代码也会导致相同的错误:

@cuda.jit(device=True)
def lookup(x):
return x + lut[1]

一旦发生这个错误,我基本上就完全无法再使用 cuda 上下文了。例如,通过 cuda.to_device 分配一个新数组会导致:

numba.cuda.cudadrv.driver.CudaAPIError: [719] Call to cuMemAlloc results in UNKNOWN_CUDA_ERROR

运行于:4.9.0-5-amd64 #1 SMP Debian 4.9.65-3+deb9u2 (2018-01-04)

驱动版本:390.25

编号:0.33.0

最佳答案

以上代码修改粗体部分修复:

@cuda.jit(device=True)
def lookup(x):
lut_device = cuda.const.array_like(lut)
return lut_device[x]

我运行了多种代码变体,包括简单地从这个内核中访问查找表,但没有使用它的输出。这与 @talonmies 断言 UNKNOWN_CUDA_ERROR 通常与无效指令一起发生相结合,我认为可能存在导致问题的共享内存约束。

上面的代码使整个事情正常进行。但是,我仍然深刻不明白为什么。

如果有人知道并理解原因,请随时为这个答案做出贡献。

关于python - 为什么这个 numba.cuda 查找表实现失败?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49092630/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com