gpt4 book ai didi

网站访问慢的排查方法及解决方案

转载 作者:qq735679552 更新时间:2022-09-29 22:32:09 24 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章网站访问慢的排查方法及解决方案由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

当出现网站慢的时候我们脑子中要映出几点原因:   1.程序代码执行方面 2.大量数据库操作 3.域名DNS解析问题 4.服务器环境   我也是这么解决的,下面说下解决中的步骤吧。   1.打开访问慢的网站观察下情况,通过火狐的fixfox 插件 或者 IE的元素查看工具,你网站里面加载的信息会一览无遗的展现出来,并且那些元素加载耗时多少秒等等情况,如何解决能,把远程耗时久的js下载到本地,或者直接删除。   2. 我看了下页面中有多处连接数据库操作的地方,并且有远程的数据库操作,并且还有多余的数据库连接代码,话不多说,改之.        解决完了发现的确是快点了,但是还是不理想,于是我把页面执行数据库代码放到了数据库中执行没有耗慢的情况。   3. 关于域名DNS的情况只是其中一种情况,不要急着找域名商的问题,你可以写个没有数据操作的页面放在同台服务器域名下,看看是不是访问同样慢,如果是才有可能,你还要让你周围的人也看看,最好别是你同公司的人。   4. 我来看看服务器的情况吧,是不是CPU使用率过高造成的呢。         a. top   发现cpu使用也不高啊,30% 左右,但是发现一个问题,sleeping 的进程数比较多。擦,最好别是僵尸进程,现在这样的东西不多了。         b. 查看了下timewait的量: 发现有mysqld  和 httpd 的,大部分来自于 httpd    ; 命令 netstat -ae|grep TIME_WAIT               如何来解决timewait的量问题呢?   TIME_WAIT解决办法:   vi /etc/sysctl.conf   编辑文件,加入以下内容: net.ipv4.tcp_syncookies = 1 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_tw_recycle = 1 net.ipv4.tcp_fin_timeout = 30 net.ipv4.tcp_keepalive_time = 30   保持连接的时间 net.ipv4.tcp_max_tw_buckets = 100  这个是设置服务器同时保持的time_wait的数目   然后执行 /sbin/sysctl -p 让参数生效。   设置APACHE 的配置文件: Timeout 10   与客户端连接超时的时间 KeepAlive On   一次连接可以多次传输,使的一次连接中可以传递多个HTTP请求 MaxKeepAliveRequests  50  设置一次连接内,可以进行多少次请求 KeepAliveTimeout   15    如果服务器已经完成了一次请求,多长时间一直没有接受到下一次请求就会断开连接   保存重启APACHE 设置完已上的操作后: netstat -n |awk '/^tcp/{++S[$NF]}END{for (i in S ) print i,S[i]}' 你会发现非常成功。   如果还不够满意可以 再设置下Ulimit参数 cat >>/etc/security/limits.conf<<EOF * soft nofile 655350 * hard nofile 655350 EOF 然后ulimit -SHn 了 让生效。   OK,当你再查看的时候 已经发现比较成功了。   如你发现mysqld 比较多的话,你可以优化下mysql的性能: 见 mysql 性能调优   好,已上都做完了,查看了先time_wait 发现有很多 百度机器人作怪挺严重的。    netstat -agn   最后只能忍痛割爱,暂时把百度蜘蛛在 robots.txt 屏蔽下,这只是暂时的解决方案。   接下来只能赶紧把首页做成纯静态的,Mygod。 到这里就完了.

最后此篇关于网站访问慢的排查方法及解决方案的文章就讲到这里了,如果你想了解更多关于网站访问慢的排查方法及解决方案的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com