gpt4 book ai didi

PHP MySQL 和服务器效率

转载 作者:行者123 更新时间:2023-11-29 00:03:13 27 4
gpt4 key购买 nike

我想知道如何在不浪费服务器资源的情况下执行以下场景。

有一个硬件设备不断地向服务器发送文件,我的服务器需要将它们记录到数据库中。 (仅文件的详细信息)

我目前的策略是运行一个 cronjob,它将检查这个文件夹并一一记录它们的详细信息。如果存在则跳过,否则保存到数据库中。但是回想一下,当一个文件夹有大约 100 万个文件时。脚本是否会 1 接 1 地循环,到那时它的效率还不够高。

我怎样才能将其调整为有效的方式?

最佳答案

您可以限制循环次数,例如一次 10 个文件或一次 100 个文件。

或者您创建一个策略,将处理过的文件放入另一个文件夹。它将节省您的资源时间。来自处理过的文件

关于PHP MySQL 和服务器效率,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28758233/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com