gpt4 book ai didi

解决File size limit exceeded 错误的方法

转载 作者:qq735679552 更新时间:2022-09-29 22:32:09 25 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章解决File size limit exceeded 错误的方法由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

昨日遇到一个问题,使用Yii框架编写php脚本,将db中100多万的数据导出,运行,成功.

但是在 运行到第 49万条时,脚本终止,提示错误“File size limit exceeded”,遂google之,原来是某个文件大小超过系统限制。笔者第一反应,日志文件写满了???赶忙查看 log,居然只有几十K !!! 那么这个 “大文件”在哪里呢?

开始分析,不可能是Yii框架的问题,此乃linux操作系统异常问题与框架无光,也不是 日志文件大小,仔细查看了所有设置的log路径下的文件,均小的可以忽略,即使是将Yii的debug关掉,也出现了相同的问题.

那么换个思路,重新运行脚本,再次运行脚本,发现 dead的时间很有规律,均是在45万条记录时挂掉,一条不多一条不少,开始怀疑与进程有关。决定查看脚本进程所影响到的io.

1、先获取脚本进程的 <pid>; 。

2、使用lsof命令查看此pid的io情况 : lsof -p <pid> 。

发现一个疑似文件 data0/xdebug/cachegrind.out.<pid>,随着脚本的执行,这个xdebug文件的大小也随之增大,最后,如愿,挂掉!此时文件大小为:2147483647!! 。

哈哈,好熟悉的数字,2^31 -1 !! 。

看来问题找到了,在脚本执行时,xdebug也随之对这个脚本进程进行写记录日志,当此文件大小超出 系统所能支持的文件大小时,如期挂掉.

ok, 将xdebug关掉,重跑脚本,一百多万的记录顺利跑完,搞定.

ps: 笔者所使用的服务器为32位系统,而在32位操作系统中,由于是二进制,其能最大存储的数据是1111111111111111111111111111111.

正因为此,体现在其他可视系统中的十进制就为2147483647.

最后此篇关于解决File size limit exceeded 错误的方法的文章就讲到这里了,如果你想了解更多关于解决File size limit exceeded 错误的方法的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com