gpt4 book ai didi

java - 负载平衡在两次 war 中运行的 tomcat 应用程序

转载 作者:行者123 更新时间:2023-11-28 23:03:40 25 4
gpt4 key购买 nike

我的应用程序(部署在 tomcat 中)发生了两场 war ,一场是客户端(比如 A),另一场是服务器(比如 B)。它们都部署在同一个 jvm 中,并且它们通过 web 服务进行通信。现在为了使应用程序具有可扩展性,我希望将其集群化并部署在多个节点中。以下是 apache 服务器中的负载平衡器配置。

<Proxy balancer://mycluster stickysession=JSESSIONID>
BalancerMember ajp://127.0.0.1:8009 min=10 max=100 route=jvm1 loadfactor=1
BalancerMember ajp://127.0.0.1:8019 min=20 max=200 route=jvm2 loadfactor=1
</Proxy>

ProxyPass /A balancer://mycluster/A
ProxyPass /B balancer://mycluster/B

在我的客户端应用程序中,服务器 url 提供如下

server.url=http://localhost/B/myservice/

我的意图是任何到达节点上的网络应用程序 A 的请求都应该在同一节点上的网络应用程序 B 中得到处理。但是使用当前配置,它没有给出预期的结果。在 jvm1 上的 Web 应用程序 A 中处理的请求转到 jvm2 上的 Web 应用程序 B,反之亦然。请让我知道我在这里遗漏了什么以及如何解决这个问题

最佳答案

您观察到的行为似乎是合理的:您向 Apache 负载均衡器发送请求,它被路由到其中一个节点。如果我理解你的场景是正确的,你想强制将请求(由你的网络应用程序发起)路由到正确的节点。我可以想到两种方法来实现这一点:

  1. 我假设到达网络应用程序 A 的初始请求来自拥有 session 的用户。如果您在 Tomcat 中配置了粘性 session ,您可以重用用户的 session cookie 并将其与您的 Web 服务请求一起发送。这样,负载均衡器将决定将请求路由到与为您带来 cookie 的原始请求相同的节点。然而,从您调用网络服务的地方访问 cookie 可能不可行。
  2. 处理您的内部请求并不完全是负载平衡器的工作。那么为什么要使用它呢?您可以将常规 HTTP 连接器添加到您的两个 Tomcat 配置中,并将它们用于 Web 服务请求。因此,您可以绕过负载平衡,在这种情况下,这只会给您的通信增加不必要的延迟和开销。缺点是:您可能需要对 IP 进行硬编码才能调用。

顺便说一句:您的配置看起来好像节点负载均衡器都在一台机器上运行。确定吗?

关于java - 负载平衡在两次 war 中运行的 tomcat 应用程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13987422/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com