- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我目前正在编写一个 CUDA 应用程序,并且遇到了一些“喂养野兽”的 IO 问题。
我想知道是否有任何方法可以直接从 RAID Controller 或 NIC 读取数据并将该数据直接发送到 GPU。我试图完成的事情直接显示在以下演示文稿的幻灯片 #3 中:http://developer.download.nvidia.com/devzone/devcenter/cuda/docs/GPUDirect_Technology_Overview.pdf .
话虽如此,显然这里已经回答了这个问题:Is it possible to access hard disk directly from gpu? ,但是我所附的演示文稿让我相信我所需要的只是在 Linux 中设置一个环境变量(但它没有提供任何有用的代码片段/示例)。
因此,我想知道是否可以将数据直接从 NIC/RAID Controller 读取到 GPU 中,这样做需要什么?我需要为硬件编写自己的驱动程序吗?是否有避免某些副本的示例?
在此先感谢您的帮助。
最佳答案
GPUDirect 是一个技术“总称”,它通常是一个品牌,指的是能够直接向 GPU 传输数据和/或从 GPU 传输数据的技术,以某种方式绕过主机内存进行不必要的传输。
GPUDirect v1 是一项与特定 infiniband 适配器配合使用的技术,可在 GPU 驱动程序和 IB 驱动程序之间共享数据缓冲区。这项技术大部分已被 GPUDirect (v3) RDMA 取代。此 v1 技术不支持任何 NIC 的一般使用。环境变量引用:
however the presentation that I've attached leads to believe all I need is to set an environment variable in Linux
指启用 GPUDirect v1。它不是通用 NIC 启用程序。
GPUDirect v2 也称为 GPUDirect Peer-to-Peer,它仅用于同一 PCIE 结构上的两个 CUDA GPU 之间的数据传输。它不支持与任何其他类型的设备的互操作性。
GPUDirect v3 也称为 GPUDirect RDMA。
Therefore, I'm wondering if it is possible to read data directly from a NIC/RAID controller into the GPU and what would be required to do so?
如今,GPUDirect RDMA 的典型用例是 Mellanox Infiniband (IB) 适配器。 (它也可以工作,也许在 Mellanox 的帮助下,使用 Mellanox 以太网适配器和 RoCE)。如果这符合您对“NIC”的定义,那么假设您有合适的硬件,则可以通过加载合适的软件堆栈来实现。 GPU 和 IB 设备需要在同一个 PCIE 结构上,这意味着它们需要连接到同一个 PCIE 根联合体(有效地,连接到同一个 CPU 插槽)。当与 Mellanox IB 适配器一起使用时,典型用法将涉及 GPUDirect RDMA-aware MPI .
如果您有自己未指定的 NIC 或 RAID Controller ,并且您还没有适用于它的 GPUDirect RDMA linux 设备驱动程序,则无法使用 GPUDirect。 (如果有 GPUDirect RDMA 驱动程序,请联系制造商或驱动程序提供商寻求帮助。)如果您可以访问驱动程序源代码,并且熟悉编写自己的 linux 设备驱动程序,则可以尝试制作自己的 GPUDirect 驱动程序.涉及的步骤超出了我的回答范围,但起点是 documented here .
Would I need to write my own driver for the hardware?
是的,如果您还没有 GPUDirect RDMA 驱动程序,则需要编写一个。
Are there any examples where certain copies are avoided?
GPUDirect RDMA MPI link给出了示例并解释了 GPUDirect RDMA 如何在从 GPU 到 IB 适配器的数据传输过程中避免不必要的设备<->主机数据副本。通常,数据可以直接(通过 PCIE)从 GPU 设备上的内存传输到 IB 设备上的内存(反之亦然),而无需经过主机内存(GPUDirect v1 没有实现这一点。)
更新:NVIDIA 最近宣布了一项名为 GPU Direct Storage 的新 GPU Direct 技术。 .
关于linux - Cuda GPUDirect 到网卡/硬盘?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29501853/
最近人工智能大火,AI 应用所涉及的技术能力包括语音、图像、视频、NLP 等多方面,而这些都需要强大的计算资源支持。AI 技术对算力的需求是非常庞大的,虽然 GPU 的计算能力在持续提升,但是对于 A
我目前正在编写一个 CUDA 应用程序,并且遇到了一些“喂养野兽”的 IO 问题。 我想知道是否有任何方法可以直接从 RAID Controller 或 NIC 读取数据并将该数据直接发送到 GPU。
我有两台机器。每台机器上有多张特斯拉卡。每台机器上还有一张 InfiniBand 卡。我想通过 InfiniBand 在不同机器上的 GPU 卡之间进行通信。只需点对点单播就可以了。我当然想使用 GP
场景: 我有两台机器,一台客户端和一台服务器,通过 Infiniband 连接。服务器计算机具有 NVIDIA Fermi GPU,但客户端计算机没有 GPU。我有一个在 GPU 机器上运行的应用程序
众所周知:http://en.wikipedia.org/wiki/IOMMU#Advantages Peripheral memory paging can be supported by an I
我有一个带有 2 个 GTX 590 卡(4 个 GPU)的 Linux 机器。使用 CUDA 4.0 驱动程序,我能够调用 GPUDirect 内存访问并验证我的 4 个 GPU 的所有可能对之间的
NVIDIA 提供 GPUDirect以减少内存传输开销。我想知道 AMD/ATI 是否有类似的概念?具体来说: 1) AMD GPU 在与网卡接口(interface)时是否避免第二次内存传输,as
我使用: 单 CPU (Intel Core i7-4820K Ivy Bridge-E) 40 channel PCIe 3.0 + 主板 MSI X79A-GD65 (8D) WindowsSer
我有一个需要大量数据的模拟程序。我将数据加载到 GPU 中进行计算,数据中存在很多依赖性。由于 1 个 GPU 不足以处理数据,所以我将其升级为 2 个 GPU。但限制是,如果我需要其他 GPU 上的
我是一名优秀的程序员,十分优秀!