gpt4 book ai didi

创建大型 .zip 文件时 PHP 中止

转载 作者:可可西里 更新时间:2023-11-01 12:22:11 26 4
gpt4 key购买 nike

我的 php 脚本在 CentOS 5.6 和 PHP 5.2.12 上运行,使用 ZipArchive() 并成功创建超过 1.6Gb 的 .zip 文件,但不能创建 2GB 或更大的更大存档 - PHP 中止,没有明显错误。 PHP 错误日志或标准错误中没有任何内容。该脚本在 cmd 行执行,而不是交互执行。

脚本运行了大约 8 分钟,临时存档变大,在检查文件大小时,最后一个 list 显示 tmp 文件的大小为 2120011776,然后 tmp 文件消失,PHP 脚本通过逻辑执行代码存档创建。

出于某种原因,top 显示 CPU 仍处于 95%,并且正在创建一个新的 tmp 存档文件 - 它会再做 5 分钟以上,然后静默停止并留下未完成的 tmp 存档文件。在此测试中 - 预期文件少于 4000 个。

上述脚本可以很好地创建较小的归档文件。

在几组不同的大型源数据上进行了测试 - 大型文件的结果相同。

这个问题听起来类似于这个问题: Size limit on PHP's zipArchive class?

我认为 ls -l 命令可能返回 2K block 的计数,因此 2120011776 将接近 4GB,但该大小以字节为单位 - xxxx.zip.tmpxx 文件的大小。

谢谢!

最佳答案

这可能是很多事情。我假设您有足够的可用磁盘空间来处理该过程。正如其他人所提到的,可以通过编辑 php.ini 文件或在代码本身中使用 ini_set() 函数来解决一些问题。

你的机器有多少内存?如果它耗尽了你的实际内存,那么它会在一定大小后定期中止是有道理的。因此,在脚本之前检查可用内存使用情况,并在脚本执行时对其进行监控。

第三个选项可以基于文件系统本身。我对 CentOS 没有太多经验,但有些文件系统不允许超过 2 GB 的文件。虽然,来自 product page ,似乎 CentOS 上的大多数系统都可以处理它。

第四个选项似乎是最有前途的,如果您查看上面链接的产品页面,就会出现另一个可能的罪魁祸首是“最大 x86 每进程虚拟地址空间”,大约为 3gb。 x86_64 大约是 2tb,因此请检查处理器类型。

同样,第四个选项似乎是罪魁祸首。

关于创建大型 .zip 文件时 PHP 中止,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5745255/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com