gpt4 book ai didi

python - 低 Apache/mod_wsgi 吞吐量

转载 作者:太空狗 更新时间:2023-10-30 01:17:21 26 4
gpt4 key购买 nike

我有一个在 pesto、mod_wsgi 和 Apache 上运行的普通 WSGI 应用程序:

def viewData(request):
return Response("aaaaaaaaaa" * 120000) # return 1,2MB of data

在我的测试机器上,我获得了大约 100kb/s 的吞吐量,这意味着请求大约需要 12 秒才能完成。从同一个 Apache 实例下载静态文件给我大约 20MB/s。为什么会有如此巨大的差异,我怎样才能加快 WSGI 应用程序的速度?

软件版本:Ubuntu 10.04、Apache 2.2.14、Python 2.6.5、mod_wsgi 2.6(所有Ubuntu默认包)、pesto-18

edit:本例所代表的真实app并没有尝试发送静态文件,而是动态产生了大量的HTML。 HTML 生成速度很快(我通过 cProfiletimeit 运行它),但传输速度很慢,我想解决这个特定问题。

edit 2:我在同一堆栈上测试了当前版本的 pesto (21) 和 mod_wsgi (3.3),吞吐量没有显着变化。我还将 mod_wsgi 替换为 spawning 0.9.5落后于 apache 的 mod_proxy - 这将吞吐量提高了四倍,但它与我希望的结果相去甚远。

最佳答案

在 WSGI 中,应用程序或框架应该返回一个可迭代对象。不知道 Pesto 是否就是这样做的。

将您的代码更改为:

def viewData(request):
return Response(["aaaaaaaaaa" * 120000])

然后重试。

关于python - 低 Apache/mod_wsgi 吞吐量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5052468/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com