gpt4 book ai didi

database - 重复删除和加载相同数据后 H2 数据库大小持续增加

转载 作者:搜寻专家 更新时间:2023-10-30 19:53:27 25 4
gpt4 key购买 nike

我有一个名为 temp.h2.db 的 H2 数据库,它被两个应用程序访问。第一个通过嵌入式模式访问它,第二个通过服务器模式访问它。通过第二个应用程序,我将数据加载到数据库中。但即使我删除以前的值并重复加载相同的数据,数据库大小也会增加。从大约 200mb,增加到大约 2Gb。即使当我删除所有表并加载一组新数据(几乎与前一组数据大小相同)时,也会发生这种情况。这是错误吗?

我试过 LOG_SIZE_LIMIT=32,但没有用。

这可能是由于未结交易造成的吗?我们如何确定存在哪些未结交易?我对数据库做了两次恢复,它给了我一些统计数据。我如何解释这些:

---- Statistics ----
-- page count: 954655, free: 776787
-- page data bytes: head 13860963, empty 26006602, rows 35134291 (66% full)
-- free 91%, 876991 page(s)
-- data leaf 3%, 36622 page(s)
-- data node 0%, 268 page(s)
-- btree leaf 3%, 36567 page(s)
-- btree node 0%, 570 page(s)
-- free list 0%, 52 page(s)
-- stream trunk 0%, 8 page(s)
-- stream data 0%, 3574 page(s)

下一组是:

---- Statistics ----
-- page count: 235708, free: 164636
-- page data bytes: head 13268512, empty 24936708, rows 33759452 (66% full)
-- free 67%, 159364 page(s)
-- data leaf 14%, 35139 page(s)
-- data node 0%, 267 page(s)
-- btree leaf 14%, 35338 page(s)
-- btree node 0%, 568 page(s)
-- free list 0%, 15 page(s)
-- stream trunk 0%, 9 page(s)
-- stream data 2%, 5005 page(s)

MAX_COMPACT_TIME 有任何帮助吗?在这里请求你的帮助。谢谢。

最佳答案

参见 https://github.com/h2database/h2database/issues/301 .这是一种已知行为,旨在以增加磁盘使用率为代价实现更快的写入。

关于database - 重复删除和加载相同数据后 H2 数据库大小持续增加,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17488935/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com