gpt4 book ai didi

database - Sonarqube - 非常大的数据库

转载 作者:搜寻专家 更新时间:2023-10-30 22:26:43 46 4
gpt4 key购买 nike

我找到了这篇关于 Sonarqube 数据库的通常大小的帖子:

How big is a sonar database?

在我们的案例中,我们有 3,584,947 个 LOC 需要分析。如果每 1,000 LOC 存储 350 Ko 的数据空间它应该使用大约 1.2Gb 但是我们发现我们的 SonarQube 数据库实际上存储超过 20Gb...

官方文档(https://docs.sonarqube.org/display/SONAR/Requirements)说,对于具有 4 年历史的 3000 万行,他们使用不到 20Gb...

在我们的 General Settings > Database Cleaner 中,我们有所有默认值,除了“Delete all analyses after”设置为 360 而不是 260

什么可以在我们的案例中创建如此多的数据?

我们使用sonarqube 6.7.1版本

编辑

正如@simonbrandhof 所问,这是我们最大的 table

| Table Name             | # Records  | Data (KB)  |
|`dbo.project_measures` | 12'334'168 | 6'038'384 |
|`dbo.ce_scanner_context`| 116'401 | 12'258'560 |
|`dbo.issues` | 2'175'244 | 2'168'496 |

最佳答案

20Gb 的磁盘对于 350 万行代码来说太大了。为了进行比较,SonarSource 的内部 PostgreSQL 模式对于 1M 行代码是 2.1Gb。

我建议清理数据库以刷新统计信息并回收死存储。 PostgreSQL 上的命令是 VACUUM FULL。其他数据库上可能有类似的命令。如果不是更好,请提供最大牌 table 的列表。

编辑

ce_scanner_context 的意外大小是由于 https://jira.sonarsource.com/browse/SONAR-10658 .此错误将在 6.7.4 和 7.2 中修复。

关于database - Sonarqube - 非常大的数据库,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50249030/

46 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com