gpt4 book ai didi

cuda - prefetch 和 prefetchu ptx 指令有什么区别?

转载 作者:行者123 更新时间:2023-12-01 20:14:28 24 4
gpt4 key购买 nike

Here在文档中,指出 prefetchprefetchu ptx 指令“预取行包含指定状态空间中指定内存层次结构级别的通用地址”。还提到语法是

prefetch{.space}.level [a]; // prefetch to data cache
prefetchu.L1 [a]; // prefetch to uniform cache

.space = { .global, .local };
.level = { .L1, .L2 };

我想知道这里指的是什么统一缓存;而语法(第二行)指定数据将被预取到 L1 中?既然存在允许预取到 L1 的 prefetchu 指令,那么 prefetchu 不是多余的吗?例如,下面的代码行有什么区别?

prefetch.global.L1  [a];  // a maps to global memory.
prefetchu.L1 [a]; // a maps to global memory.

最佳答案

统一缓存确实就是常量缓存,《CUDA应用设计与开发》一书中是这么说的:

...“SM 还包含常量(标记为统一缓存”(原文如此)...

https://books.google.com.tr/books?id=Y-XmJO2uwvMC&pg=PA112&lpg=PA112#v=onepage&q&f=false

关于cuda - prefetch 和 prefetchu ptx 指令有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29463668/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com