gpt4 book ai didi

java - 并行压缩收集器算法

转载 作者:塔克拉玛干 更新时间:2023-11-02 08:15:57 25 4
gpt4 key购买 nike

我有两个问题。其中一个将讨论这个话题:)

1) 我遇到了无法找到有关不同垃圾收集器在 HotSpot 中工作方式的完整信息的问题。但我不是在谈论垃圾收集器工作的一般描述(我们在互联网上有很多这样的信息),我在谈论具体的算法。我找到了这份白皮书(Java HotSpot 虚拟机中的内存管理)http://www.oracle.com/technetwork/java/javase/tech/memorymanagement-whitepaper-1-150020.pdf .但它只有一般的想法。它对并行压缩算法(我的意思是并行标记-清除-压缩)有一个很好的描述(可能不太好 - 请参阅我的第二个问题),但它没有解释其他垃圾收集器的算法。然而,这份白皮书是我能够在 Internet 上找到的最好的信息。我想知道的是在哪里可以获得关于不同垃圾收集器(对于年轻一代我的意思是:ParNew、DefNew、PSYoungGen;对于老一代:PSOLdGen、ParOldGen、Concurrent-Mark-Sweep)如何工作的完整描述/信息。无法相信这些信息对用户不可用。

2) 关于Parallel Compacting Collector 算法(ParOldGen 或Parallel Mark-Sweep-Compact)的问题。白皮书(见第一个问题)描述了它的工作。让我引用白皮书中的一段话(请花点时间看一下): enter image description here

我无法理解的地方如下:

关于总结阶段:

  • Due to compactions from previous collections, it is typical that some portion of the left side of each generation will be dense, containing mostly live objects. The amount of space that could be recovered from such dense regions is not worth the cost of compacting them.

好吧,这是否意味着当我们有一个区域由 98-99% 的 Activity 对象和 2-1% 的死对象组成(换句话说,死对象的比例非常小)而不是压缩该区域不值得从这样一个区域恢复的空间。然而,这个微小的空闲空间(空洞)最终会被填满,垃圾收集完成后将没有空洞。

  • So the first thing the summary phase does is examine the density of the regions, starting with the leftmost one, until it reaches a point where the space that could be recovered from a region and those to the right of it is worth the cost of compacting those regions.

好吧,如果我们有比这个区域大的死对象百分比,就值得压缩,对吧?

  • The regions to the left of that point are referred to as the dense prefix, and no objects are moved in those regions.

“并且这些区域中没有移动任何对象”,但是这些区域中可能有一些小的空闲空间,对吗?看不懂重点

  • The regions to the right of that point will be compacted, eliminating all dead space.

请说明它们将如何压缩。每个区域都将单独压缩?我觉得不是。那么也许这里会发生某种转变?

  • The summary phase calculates and stores the new location of the first byte of live data for each compacted region.

要理解它,我需要理解我想的上一个问题。

关于压缩阶段:

  • In the compaction phase, the garbage collection threads use the
    summary data to identify regions that need to be filled, and the
    threads can independently copy data into the regions. This produces a heap that is densely packed on one end, with a single large empty
    block at the other end.

我完全糊涂了。所以在“总结阶段”没有发生压缩?上一阶段的目的只是为了找到所有空闲空间吗?

请帮我看清楚。

最佳答案

这只是对算法的一般描述。这样的描述可以有不同的细节。在这种情况下,它为您提供了大部分细节,但仍为实现者留下了一些选择。

关于您的问题:

  1. 所以在“总结阶段”没有发生压缩?前一阶段的目的是否只是为了找到所有空闲空间? - 是的,这是正确的。摘要阶段收集索引数据并基本上确定所有必要的内容,以便压缩阶段可以执行复制。他们没有说明如何实现压缩,但默认方式只是将每个 Activity 对象紧挨着前一个对象放置。基本上,所有空白空间都被删除,压缩步骤完成后,您将拥有一个连续的内存块,其中包含所有 Activity 对象。我看到您对第四部分感到困惑,但请注意它是用将来时写的:“将被压缩”- 所以不是在总结期间,而是在以后。
  2. 这是否意味着 [...] 该区域的压缩不值得从该区域恢复的空间? 是的,没错。您实际上会损失一些空间,但是为了执行速度而牺牲内存是很常见的。确切的密度阈值取决于实现,但我认为已用内存与总内存的比率阈值大约在 70-90%。

如果您想了解所有细节,请查看评论中建议的开源 VM 实现。

关于java - 并行压缩收集器算法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20430058/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com