gpt4 book ai didi

gpu - 多 GPU 编程如何与 Vulkan 一起工作?

转载 作者:行者123 更新时间:2023-12-03 13:25:00 24 4
gpt4 key购买 nike

在 Vulkan 中使用多 GPU 是否类似于创建许多命令队列然后在它们之间划分命令缓冲区?

有2个问题:

  • 在 OpenGL 中,我们使用 GLEW 来获取函数。对于超过 1 个 GPU,每个 GPU 都有自己的驱动程序。我们是如何使用 Vulkan 的?
  • 部分帧是否会由 GPU 生成,而其他帧是否会由其他 GPU 生成,例如使用 Intel GPU 渲染 UI 和 AMD 或 Nvidia GPU 在 labtops 中渲染游戏屏幕?还是会在 GPU 中生成一帧,而在另一个 GPU 中生成下一帧?
  • 最佳答案

    更新了最新的信息,现在 Vulkan 已经存在。

    有两种多 GPU 设置:多 GPU 是某些 SLI 样式设置的一部分,另一种不是。 Vulkan 两者都支持,并且在同一台计算机上同时支持它们。也就是说,您可以拥有两个一起使用 SLI 的 NVIDIA GPU,以及英特尔嵌入式 GPU,而 Vulkan 可以与它​​们进行交互。

    非 SLI 设置

    在 Vulkan 中,有一个叫做 Vulkan 实例的东西。这代表了基本的 Vulkan 系统本身;各个设备将自己注册到实例。 Vulkan 实例系统本质上是由 Vulkan SDK 实现的。

    物理设备表示实现与 GPU 的接口(interface)的特定硬件。公开 Vulkan 实现的每个硬件都通过将其物理设备注册到实例系统来实现。您可以查询哪些物理设备可用,以及它们的一些基本属性(它们的名称、它们提供的内存量等)。

    然后为您使用的物理设备创建逻辑设备。逻辑设备是您在 Vulkan 中实际操作的方式。它们有队列、命令缓冲区等。每个逻辑设备都是独立的……主要是。

    现在,您可以绕过整个“实例”并手动加载设备。但你真的不应该。至少,除非您处于开发的最后阶段,否则不会。 Vulkan 层对于日常调试来说太重要了,不能选择退出。

    Vulkan 1.1 中的核心机制允许单个设备能够将某些信息传达给其他设备。在 1.1 中,只能在物理设备之间共享某些类型的信息(即栅栏和信号量,即使那样,也只能在 Linux 上通过同步文件)。虽然这些 API 可以提供一种在两个物理设备之间共享数据的机制,但目前,对大多数数据共享形式的限制是两个物理设备必须具有匹配的 UUID(因此是相同的物理设备)。

    SLI 设置

    处理 SLI 包含在两个 Vulkan 1.0 扩展中:KHR_device_groupKHR_device_group_creation .前者用于处理 Vulkan 中的“设备组”,而后者是用于创 build 备分组设备的实例扩展。这两者都是 Vulkan 1.1 的核心。

    这样做的想法是 SLI 聚合作为单个 VkDevice 公开。 ,它是由多个 VkPhysicalDevice 创建的s。每个内部物理设备都是一个“子设备”。您可以查询子设备及其相关属性。内存分配特定于特定的子设备。资源对象(缓冲区和图像)并不特定于子设备,但它们可以与不同子设备上的不同内存分配相关联。

    命令缓冲区和队列不特定于子设备;当您在队列上执行 CB 时,驱动程序会确定它将在哪个子设备上运行,并使用正确的 GPU 指针填充使用图像/缓冲区的描述符,以用于这些图像/缓冲区具有的内存被绑定(bind)到那些特定的子设备上。

    交替帧渲染只是在一帧上呈现从一个子设备生成的图像,然后在另一帧上呈现来自不同子设备的图像。拆分帧渲染由更复杂的机制处理,您可以在其中定义要在设备之间拆分的渲染命令的目标图像的内存。你甚至可以用漂亮的图像来做到这一点。

    关于gpu - 多 GPU 编程如何与 Vulkan 一起工作?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31833776/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com