gpt4 book ai didi

php - 如何在多个部分加速/分解过程。 Rss, curl ,PHP

转载 作者:数据小太阳 更新时间:2023-10-29 02:45:52 26 4
gpt4 key购买 nike

我目前正在尝试使用一些 RSS 阅读器/ getter 进行写作。除了一件事,一切都很顺利。这太慢了。

让我解释一下:

  1. 我从数据库中获取 RSS 提要列表
  2. 我迭代此列表中的每个提要,使用 cURL 打开它并使用 SimpleXMLElement 解析它
  3. 我使用给定的关键字检查这些提要的描述和标题,看它是否已经在数据库中。
  4. 如果不是,我将其添加到数据库中。

现在我正在循环浏览 11 个提要。这给了我 18 秒的页面加载时间。这没有更新数据库。当找到一些新文章时,它会上升到 22 秒(在本地主机上)。

在实时网络服务器上,我的猜测是这会更慢,并且可能超出 php 设置的限制。

所以我的问题是,您对提高速度有何建议……如果这不可能,那么将其分解为多次执行的最佳方法是什么,比如一次 2 个提要?我想保持自动化,不想在每 2 个 Feed 后点击一次。

希望大家给我一些好的建议!

如果你想要一些代码示例让我知道并粘贴一些

谢谢!

最佳答案

我建议您使用 cronjob 或守护程序,通过运行 php 脚本自动将提要与数据库同步。这将从用户的角度消除延迟。像每小时或任何适合你的方式运行它。

虽然首先,您可能应该尝试找出流程的哪些部分实际上很慢。没有代码,很难说出哪里出了问题。

可能的问题可能是:

  • 远程服务器(存储提要)很慢
  • 您本地服务器的互联网连接
  • 您服务器的硬件
  • 显然是代码

关于php - 如何在多个部分加速/分解过程。 Rss, curl ,PHP,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13564161/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com