gpt4 book ai didi

mysql - 更新 MySQL 中的大量数据

转载 作者:行者123 更新时间:2023-11-29 03:25:37 24 4
gpt4 key购买 nike

我遇到过这种情况,我需要选择大量数据(比如说 100k 条记录,它们看起来像 ID | {"points":"9","votes":"2","breakdown":"0,0,0,1,1"}),在 PHP 中处理它,然后放回去。问题是关于有效地把它放回去。我看到了使用 INSERT ... ON DUPLICATE KEY UPDATE 的解决方案,我看到了使用 CASEUPDATE 的解决方案。还有其他解决方案吗?哪种方法是更新庞大数据阵列的最有效方法?

最佳答案

更好的选择是使用简单的更新。
当您尝试放入带有插入异常的数据时,您的数据库将做更多的额外工作:尝试插入、验证约束、引发异常、更新行、再次验证约束。

更新

在我的本地 PC 上运行测试以插入到... ON DUPLICATE KEY UPDATE 和针对具有 43k 行的表的 UPDATE 语句。

第一种方法的运行速度提高了 40%。
但两者的工作速度都比 1.5 秒快。我想,你的 php 代码将成为你方法的瓶颈,你不应该担心 MySQL 语句的速度。当然,如果您的表不大并且没有几千万行,它也可以工作。

更新 2

我的本​​地 PC 在默认配置下使用 MySQL 5.6。中央处理器:8Gb

关于mysql - 更新 MySQL 中的大量数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36686784/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com