- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我们当前的Varnish配置遇到一个奇怪的问题。
4个Web服务器(Windows 2003 Server上的IIS 6.5,每个均安装在3.00GHz四核,4GB RAM的Intel®Xeon®CPU E5450上)
3个Varnish服务器(Ubuntu 12.04.2 LTS上的varnish-3.0.3修订版9e6a70f-64位/精确度,内核Linux 3.2.0-29通用),每个都安装在3.00GHz @Intel®Xeon®CPU E5450上四核,4GB RAM)
3个Varnish Server具有非常标准的 Vanilla cfg:我们更改的唯一内容是vcl_recv和vcl_fetch,以便处理 session cookie。它们当前已配置为使用内存缓存,但是我们已经尝试使用具有相同结果的高性能Raid Drive切换到HDD缓存。
我们在大约两年前就已将其部署在旧的Web场中,没有任何问题,一切都如火如荼地进行着。现在,使用上述机器并经过重新安装之后,当我们的网站繁忙时,我们的客户遇到了很多连接问题(客户端上的待处理请求,404错误,文件丢失等)。从控制台日志中,我们可以清楚地看到,当每个Varnish每秒达到大约700个请求时,就会开始发生这些问题:似乎它们无法处理更多事情。通过关闭一台或两台Varnish Server,我们可以在任何时间轻松地重现关键情况,并查看其他服务器的 react :每当每秒req计数达到700时,它们总是开始跳动节拍。 ,并按照Varnish规范进行操作,这似乎根本不正常。
我们正在尝试改善Varnish服务器的性能和/或了解问题的实际出处:为了做到这一点,我们确实可以使用以类似方式使用它的其他公司的某种“基准”,以便帮助我们了解我们与预期绩效之间的差距(我想我们已经做到了)。
编辑(添加的CFG文件):
这是我们的default.vcl文件。
这是varnishadm >param.show output console cmd的输出。
我还将尝试发布我们的varnishlog文件的一小部分。
提前致谢,
最佳答案
要回答标题中的问题:具有您所描述的规范的单个Varnish服务器应该轻松地每秒处理20k +请求,而无需进行其他调整,而只是增加线程数。
您没有提供足够的信息(vcl,varnishlog)来回答其余的问题。
我的猜测是,您最终将以某种方式序列化后端请求。检查您的hit_for_pass对象,并确保它们具有有效的TTL集。 (120s可以)
关于load-balancing - Varnish :(合理地)期望每秒达到多少峰值?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19032835/
我是 AWS 新手。我开始学习 ALB 和 NLB。我知道 ALB 在第 7 层协议(protocol)中工作,而 NLB 在第 4 层协议(protocol)中工作。 谁能解释一下ALB和NLB的实
我正在使用平衡付款ruby api并意外创建了几个额外的测试市场。虽然 api 公开了一个用于创建测试市场的清晰界面,但我似乎找不到任何方法来删除它,即使没有 api。有人知道删除市场的方法吗? 最佳
我有在 Google Compute Engine 上运行的服务。我在欧洲的目标池中有几个实例,在美国的目标池中也有几个实例。目前我有一个域名,它连接到欧洲目标池 IP,并且可以很好地在这两个实例之间
我在golang中遇到以下错误 # go.etcd.io/etcd/clientv3/balancer/picker
我在 Google CE(计算引擎)上有一个 Node.js 应用程序,它在 nginx 服务器后面运行。 我应该使用 nginx 负载均衡器和 Google Cloud 负载均衡器吗? 或者它们是相
我正在寻找将 WAF 集成到现有服务器设置中的方法,因为我的 Classic Load Balancer(带有 EC2 实例)不支持 WAF,因此我需要迁移到 Application Load Bal
在我的文档中有一个父 div固定高度和两列子元素 div . Text 仅使用 CSS3,我试图通过以下方式将子项的两列布局与父项的溢出裁剪携手合作: 当子元素包含很少的文本时,它不应该平
我正在尝试设置 Application Load Balancer 以将流量转发到 AWS 中的 Nginx Ingress Controller 。 为了设置 Nginx Ingress Contr
我有一个 EKS Kubernetes 1.16.x。具有三个标记为 kubernetes.io/role/elb: 1 的公共(public)子网的集群和三个标记为 kubernetes.io/ro
我有 REST API。 为了简单起见,假设我有两个服务: read.request.com write.request.com 如何将所有读取请求(GET 方法)重写为read.request.co
我是微服务领域的新手,但了解有关负载平衡的基础知识。我最近读了一篇关于微服务的文章:Enough with the microservices . 其中提到微服务和负载均衡器都有集群/不同的 VM 用
在阅读“kong”api网关的文档时,上游服务器中有一个称为插槽的概念。我没明白这句话的意思。请分享这方面的知识。 最佳答案 我查看了 Kong 源代码,这是相对于外部 resty 库的: https
某个组织有10服务器。为它提供一些负载平衡算法。还要考虑这样一种情况,其中一台服务器需要 10 秒来处理请求,而其他服务器只需要 1 秒。那么,您将如何管理这个瓶颈? 最佳答案 有多种方法可以做到这一
考虑一种情况,我们有一个部署在多个服务器中的 Web 应用程序,并且客户端请求登陆到负载均衡器,负载均衡器又将请求路由到实际服务器。 现在,如果我们有太多请求并发,负载均衡器本身会失败吗?假设我们每秒
在Web应用程序和服务中,我正在创建它必须水平缩放。我想拥有1个负载平衡器,3个Web服务器节点和2个数据库节点(其中一个仅用于冗余,并且在第一个数据库节点发生故障时将垂直扩展)。 负载均衡器是否充当
可以对MQTT代理进行负载平衡吗?我可以使用ELB来负载均衡MQTT吗?朝这个方向的任何指示都将有所帮助。我碰到了http://www.slideshare.net/kellogh/mqtt-kafk
阅读常见消息队列系统(例如 RabbitMQ、ActiveMQ)的文档,似乎负载平衡总是由队列系统(循环)或生产者使用消息上的多个队列或属性来完成。然而,在我们的应用程序中,没有人知道处理消息需要多长
我的老板想要一个系统来考虑整个大陆的灾难性事件。他想在美国有两台服务器,在亚洲有两台服务器(每个大陆有 1 个登录服务器和 1 个工作服务器)。 如果地震破坏了两大洲之间的联系,两者都应该单独行动。当
最近有几种服务发现工具变得流行/“主流”,我想知道在哪些主要用例下应该使用它们而不是传统的负载均衡器。 使用 LB,您可以在平衡器后面聚集一堆节点,然后客户端向平衡器发出请求,然后平衡器(通常)将这些
我们的设置是 Varnish 前端,通过配置的运行状况轮询为2个后端提供服务。我们使用Client Director进行负载平衡,因此根据client.identity选择后端 当两个后端之一发生故障
我是一名优秀的程序员,十分优秀!