gpt4 book ai didi

performance - 多核 Intel CPU 中的高速缓存是如何共享的?

转载 作者:行者123 更新时间:2023-12-01 17:26:25 32 4
gpt4 key购买 nike

我有一些关于多核 CPU 或多处理器系统中使用的高速缓存存储器的问题。 (虽然与编程没有直接关系,但当一个人为多核处理器/多处理器系统编写软件时,它会产生很多影响,因此在此询问!)

  1. 在多处理器系统或多核处理器(英特尔四核、酷睿二核等)中,每个 CPU 核心/处理器是否都有自己的缓存(数据和程序缓存)?

    <
  2. 一个处理器/核心可以访问彼此的缓存吗?因为如果允许它们访问彼此的缓存,那么我相信在特定处理器缓存没有的情况下,缓存未命中的情况可能会更少。一些数据,但其他一些第二处理器的缓存可能拥有它,从而避免从内存读取到第一个处理器的缓存中?这个假设有效且真实吗?

  3. 允许任何处理器访问其他处理器的高速缓存会出现任何问题吗?

最佳答案

In a multiprocessor system or a multicore processor (Intel Quad Core, Core two Duo etc..) does each cpu core/processor have its own cache memory (data and program cache)?

  1. 是的。它因具体的芯片型号而异,但最常见的设计是每个 CPU 内核都有自己的私有(private) L1 数据和指令缓存。

    在旧的和/或低功耗的 CPU 上,下一级缓存通常是 L2 统一缓存,通常在所有内核之间共享。或者在 65nm Core2Quad(一个封装中的两个 core2duo 芯片)上,每对核心都有自己的最后一级缓存,并且无法高效通信。

现代主流 Intel CPU(自第一代 i7 CPU、Nehalem 起)使​​用 3 级缓存。

  • 32kiB 分割 L1i/L1d:每核私有(private)(与早期的 Intel 相同)
  • 256kiB 统一 L2:每核专用。 (Skylake-avx512 上为 1MiB)。
  • 大型统一 L3:在所有核心之间共享

末级缓存是一个大型共享L3。它在物理上分布在内核之间,在连接内核的环形总线上每个内核都有一个 L3 切片。通常每个核心有 1.5 到 2.25MB 的 L3 缓存,因此多核 Xeon 可能在所有核心之间共享 36MB L3 缓存。这就是为什么双核芯片有 2 到 4 MB 的 L3,而四核芯片有 6 到 8 MB。

在 Skylake-avx512 以外的 CPU 上,L3包含每核私有(private)缓存,因此它的标签可以用作窥探过滤器,以避免向所有内核广播请求。即,缓存在私有(private) L1d、L1i 或 L2 中的任何内容也必须分配在 L3 中。请参阅Which cache mapping technique is used in intel core i7 processor?

David Kanter's Sandybridge write-up有一个很好的内存层次结构/系统架构图,显示了每个核心缓存及其与共享 L3 的连接,以及与之连接的 DDR3/DMI(芯片组)/PCIe。 (这仍然适用于 Haswell/Skylake-client/Coffee Lake,但后续 CPU 中使用 DDR4 除外)。

Can one processor/core access each other's cache memory, because if they are allowed to access each other's cache, then I believe there might be lesser cache misses, in the scenario that if that particular processors cache does not have some data but some other second processors' cache might have it thus avoiding a read from memory into cache of first processor? Is this assumption valid and true?

  • 没有。每个 CPU 核心的 L1 缓存都紧密集成到该核心中。访问相同数据的多个核心将在自己的 L1d 缓存中拥有自己的副本,非常靠近加载/存储执行单元。

    多级缓存的要点在于,单个缓存对于非常热的数据来说速度不够快,但对于仍定期访问的不常用数据来说又不够大。 Why is the size of L1 cache smaller than that of the L2 cache in most of the processors?

    在英特尔当前的 CPU 中,脱离核心到另一个核心的缓存不会比直接进入 L3 更快。或者,与仅仅构建更大/更快的 L3 缓存相比,实现这一点所需的核心之间的网状网络将是令人望而却步的。

    其他核心内置的小/快速缓存可以加速这些核心。与其他提高缓存命中率的方法相比,直接共享它们可能会花费更多的电力(甚至可能更多的晶体管/芯片面积)。 (功率是比晶体管数量或芯片面积更大的限制因素。这就是为什么现代 CPU 可以拥有大型私有(private) L2 缓存)。

    另外,您不希望其他核心污染小型私有(private)缓存,该缓存可能正在缓存与核心相关的内容。

  • Will there be any problems in allowing any processor to access other processor's cache memory?

  • 是的——根本没有电线将各种 CPU 缓存连接到其他内核。如果一个核心想要访问另一个核心缓存中的数据,唯一可以通过的数据路径是系统总线。
  • 一个非常重要的相关问题是 cache coherency problem 。请考虑以下情况:假设一个 CPU 核心在其缓存中具有特定的内存位置,并且它写入该内存位置。然后,另一个核心读取该内存位置。如何确保第二个核心看到更新后的值?这就是缓存一致性问题。

    正常的解决方案是the MESI protocol ,或其变体。 Intel uses MESIF .

    关于performance - 多核 Intel CPU 中的高速缓存是如何共享的?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/944966/

    32 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com