gpt4 book ai didi

CUDA - 通过 PCI-E 传输多慢?

转载 作者:行者123 更新时间:2023-12-04 23:55:07 26 4
gpt4 key购买 nike

如果我将单个字节从 CUDA 内核传输到 PCI-E 到主机(零拷贝内存),与传输 200 兆字节之类的内容相比,它慢了多少?

我想知道的是,因为我知道通过 PCI-E 传输对于 CUDA 内核来说很慢,是:如果我只传输一个字节或大量数据,它会改变什么吗?或者也许因为内存传输是“批量”执行的,传输单个字节对于传输 200 MB 来说非常昂贵且无用?

最佳答案

希望这张图能说明一切。数据由bandwidthTest生成在 CUDA 样本中。硬件环境为 PCI-E v2.0、Tesla M2090 和 2x Xeon E5-2609。请注意,两个轴都是对数刻度。

给定这个数字,我们可以看到启动传输请求的开销需要一个恒定的时间。对数据的回归分析得出 H2D 的估计开销时间为 4.9us,D2H 为 3.3us,D2D 为 3.0us。

enter image description here

关于CUDA - 通过 PCI-E 传输多慢?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17729351/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com