gpt4 book ai didi

php - 如何提高十亿行表的插入性能?

转载 作者:行者123 更新时间:2023-11-30 23:07:49 25 4
gpt4 key购买 nike

我有十亿行的表不再适合内存。

当我批量插入新行时,重新计算主索引的开销会降低性能。我必须有这个索引,否则 SELECT 语句真的很慢。但是由于插入的顺序是随机的,插入的每一行都必须将数据写入磁盘的不同区域。

并且由于 HDD 的上限为每秒 200 次 IO 操作,这会减慢插入速度。

在这种情况下,我可以同时“吃我的蛋糕”吗?也许通过创建另一个表,其中数据将按不同的列分组(通过具有不同的主键)?但这对我来说似乎很浪费,我什至不知道这是否有帮助...

或者也许我可以使用一些临时表?插入 1,000,000 行,然后将它们插入目标表,按主键分组?

我注定要失败吗?

编辑:

我已经对表进行了水平分区。

当我删除我需要的这个字段上的主键并将其放在自动增量字段上时,插入速度非常快。

不幸的是,由于磁盘上的数据是由主键值放置的,这会破坏选择性能...因为选择不基于自动增量值而是基于 PK 值进行查询。

所以我要么快速插入行,要么快速选择它们。是否有任何解决方案可以在这两种情况下提供帮助?

最佳答案

.当你每次插入新行时,它会在数据插入后进行索引。这需要更多时间。你可以使用

开始交易

...您插入查询...

提交

关于php - 如何提高十亿行表的插入性能?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21091964/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com