gpt4 book ai didi

cpu - 哪种架构称为非均匀内存访问(NUMA)?

转载 作者:行者123 更新时间:2023-12-02 17:32:27 28 4
gpt4 key购买 nike

根据wiki :非均匀内存访问 (NUMA) 是一种用于多处理的计算机内存设计,其中内存访问时间取决于相对于处理器的内存位置。

但尚不清楚它是与包括缓存在内的任何内存有关还是仅与主内存有关。

例如 Xeon Phi 处理器具有下一个架构:enter image description here

所有内核对主内存 (GDDR) 的内存访问都是相同的。同时,不同内核对L2缓存的内存访问是不同的,因为首先检查 native L2缓存,然后通过环检查其他内核的L2缓存。 是 NUMA 还是 UMA 架构?

最佳答案

从技术上讲,NUMA 可能应该仅用于描述主内存的非均匀访问延迟或带宽。 (如果 NUMA 因子 [延迟远/延迟近或带宽远/带宽近] 很小 [例如,与 DRAM 行缺失、缓冲等导致的动态变化相当],则系统仍可能被视为 UMA。)

(从技术上讲,Xeon Phi 具有较小但非零的 NUMA 系数,因为环互连上的每一跳都需要时间[一个核心可能仅距一个内存 Controller 一跳,距最远的内存 Controller 可能只有几跳]。)

术语 NUCA(非统一缓存访问)用于描述对不同缓存 block 具有不同访问延迟的单个缓存。共享缓存级别的部分与核心或核心集群更紧密地联系在一起也属于 NUCA,但单独的缓存层次结构(我相信)不能证明该术语的合理性(即使窥探可能会在“远程”中找到所需的缓存 block )缓存)。

我不知道有什么术语可以用来描述具有与窥探相关的可变缓存延迟(即具有单独的缓存层次结构)和小/零 NUMA 因子的系统。

(由于缓存可以透明地复制和迁移缓存 block ,因此 NUMA 概念有点不太合适。[是的,操作系统可以透明地迁移和复制页面到 NUMA 系统中的应用程序软件,所以这种差异不是绝对的。] )

也许有点有趣的是,Azul Systems 声称 UMA across sockets其 Vega 系统:

Azul builds are gear as ‘UMA’ because our programs do not have well understood access patterns. Instead, the patterns are mostly random (after cache filtering) and so it makes sense to have uniform mediocre speeds instead of 1/16th of memory fast and 15/16ths as slow.

关于cpu - 哪种架构称为非均匀内存访问(NUMA)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20238801/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com