gpt4 book ai didi

cuda - 将 SSE/AVX 单元与 GPU 核心进行比较公平吗?

转载 作者:行者123 更新时间:2023-12-03 02:39:08 31 4
gpt4 key购买 nike

我要向那些(几乎)不了解 GPU 工作原理的人做一个演示。我认为说 GPU 有一千个核心而 CPU 只有四到八个核心是没有意义的。但我想给我的观众一种比较的元素。

在使用 NVidia 的 Kepler 和 AMD 的 GCN 架构几个月后,我很想将 GPU“核心”与 CPU 的 SIMD ALU 进行比较(我不这样做)不知道英特尔是否有这个名称)。 公平吗?毕竟,从汇编层面来看,这些编程模型有很多共同点(至少对于 GCN,看看p2-6) ISA manual)。

This article声明 Haswell 处理器每个周期可以执行 32 个单精度运算,但我认为需要通过管道或其他方式来实现该速率。 用 NVidia 的话说,该处理器有多少个 Cuda 核心对于 32 位操作,我会说每个 CPU 核心有 8 个,但这只是基于以下的猜测: SIMD 宽度。

当然,在比较 CPU 和 GPU 硬件时还有很多其他因素需要考虑,但这不是我想要做的。我只需要解释一下它是如何工作的。

PS:非常感谢所有指向 CPU 硬件文档或 CPU/GPU 演示文稿的指针!

编辑:感谢您的回答,遗憾的是我只能选择其中之一。我标记了Igor's answer因为它最贴近我最初的问题,并给了我足够的信息来证明为什么这种比较不应该太过分,但是 CaptainObvious provided very good articles .

最佳答案

我在进行这种比较时会非常谨慎。毕竟,即使在 GPU 世界中,“核心”一词根据上下文也具有真正不同的功能:新的 AMD GCN 与旧的 VLIW4 完全不同,而旧的 VLIW4 本身又与 CUDA 核心完全不同。
除此之外,如果你只是与CPU做一个小小的比较,你会给观众带来更多的困惑而不是理解,仅此而已。如果我是你,我仍然会进行更详细(仍然可以很快)的比较。
例如,有人习惯了CPU,但对GPU知之甚少,可能会想知道为什么GPU这么贵(在CPU世界中)却可以有这么多寄存器。对此问题的解释在本文 post 的末尾给出。以及更多 GPU 与 CPU 的比较。

这个其他article通过解释 GPU 的工作原理以及它们的演变过程并展示与 CPU 的差异,对这两种处理单元进行了很好的比较。它讨论了数据流、内存层次结构等主题,还讨论了 GPU 对于哪些类型的应用程序有用。毕竟,GPU 可以开发的所有功能只能针对某些类型的问题才能(有效)使用。
就我个人而言,如果我必须做一个关于 GPU 的演示并且可以仅提及 CPU,那么我会这样:展示 GPU 可以有效解决的问题与 CPU 可以更好处理的问题。
作为奖励,尽管它与您的演示没有直接关系,但这里是 article这让 GPGPU 得到了正确的看待,表明一些人声称的加速被高估了(顺便说一句,这与我的最后一点有关:))

关于cuda - 将 SSE/AVX 单元与 GPU 核心进行比较公平吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17426846/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com