gpt4 book ai didi

mysql - 如何处理数百万个单独的插入查询

转载 作者:行者123 更新时间:2023-11-29 06:42:10 24 4
gpt4 key购买 nike

我有一种情况,我必须将超过 1000 万条单独的记录插入到一​​个表中。通常,分成 block 的批量插入可以为我完成工作。然而,问题是这个超过 3gig 的文件包含超过 1000 万个单独的插入语句。由于每个查询需要 0.01 到 0.1 秒,因此插入所有内容将花费 2 天以上的时间。

我确信一定有一种方法可以通过大幅降低插入时间或以某种不同的方式导入来优化这一点。

我现在只是在使用cli

source /home/blabla/file.sql

注意:这是向我提供此文件的第 3 方。我是

小更新我删除了所有索引

最佳答案

删除索引,完成后重新索引!

关于mysql - 如何处理数百万个单独的插入查询,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20814405/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com