gpt4 book ai didi

optimization - neo4j 广度优先遍历内存问题

转载 作者:行者123 更新时间:2023-12-03 17:31:35 28 4
gpt4 key购买 nike

我有一个包含数百万个节点和 300 万条边的图表加载到 Neo4j 中。它在进行广度优先遍历时崩溃,提示 8 GB 机器上的内存不足。每个节点标签字符串的平均长度为 40 个字符。

Neo4j 使用什么样的内部表示需要这么多内存,尤其是。遍历?鉴于 Neo4j 能够表示整个图,为什么它在尝试维护广度优先遍历所需的访问节点集时会失败。

根据我的理解,上述图形的邻接列表格式的图形表示应该以 MB 为单位。
计算假设节点和边的 64 位表示

  • 300 万条边 * 8 字节 * 3 = 72 M(节点链接节点)
  • 100 万个节点 *(40 + 8 + 8 个字节)= 56 M(64 位哈希链接到节点字符串标签)
  • 最佳答案

    关于optimization - neo4j 广度优先遍历内存问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29473136/

    28 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com