gpt4 book ai didi

mysql - 数据库查询效率

转载 作者:行者123 更新时间:2023-11-29 01:53:58 25 4
gpt4 key购买 nike

我的老板要我创建一个数据库表,用各种参数跟踪我们的一些库存。它旨在作为每半小时左右运行一次的 cron 作业来实现,但调度部分并不重要,因为我们已经讨论过我们稍后会处理它。

我想知道的是,每次调用脚本时只删除表中的所有内容并重新填充它,或者遍历每条记录以确定是否进行了任何更改并相应地更新每个条目是否更有效。执行前者更容易,但考虑到我们有 700 多条单独的记录要跟踪,我不知道执行此操作所花费的时间是否会给服务器带来巨大的负载。该脚本是用 PHP 编写的。

最佳答案

700 条记录是极少数会引起性能问题的记录。想都别想,做对你来说更容易的事。

但是如果你追求的是性能,更新行比插入行慢,(特别是如果你不期望任何生成的键,所以插入是对数据库的单向操作而不是往返和从数据库,) 和 TRUNCATE TABLE 往往比 DELETE * FROM 更快。​​

关于mysql - 数据库查询效率,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34167922/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com