- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我当前的 k8s 设置遇到了问题。在生产中,我为每个服务创建了三个副本,并将它们放入一个 pod 中。当 pod 相互交谈时,我们希望 pod 以循环方式与 pod 中的每个容器交谈。不幸的是,由于 TLS 保持事件状态,Pod 之间的连接永远不会终止——我们不想特别改变那部分——但我们确实希望 Pod 中的每个容器都能正确通信。这就是我们现在所拥有的:
如果 API 试图与 pod OSS 对话,它只会与第一个容器对话。我希望 API 能够以循环方式与所有三个进行对话。
我该怎么做呢?我知道我需要一个入口 Controller ,比如 nginx。但是是否有一些真正的教程可以分解我如何实现这一目标?我不确定并且对 k8s 有点陌生。任何帮助都会受到欢迎!
顺便说一下,我正在本地开发 minikube。
编辑:
在生产中,我们启动每个服务的三个副本。服务时A
需要联系服务B
,一个 pod B1
来自服务 B
被选中并管理它收到的任何请求。然而,那个 pod B1
成为服务中唯一的 Pod B
处理任何通信;换句话说, pod B2
和 B3
从来没有说过。我正在尝试用 nginx 解决这个问题,因为似乎我们需要一个负载平衡器来帮助解决这个问题,但我不知道该怎么做。任何人都可以提供一些关于需要做什么的详细解释吗?具体来说,我如何使用我的服务设置 nginx,以便在一个服务中使用所有 pod(以某种循环方式),这与现在只使用一个 pod 的情况不同?这是一个问题,因为在生产中,当我们有另外两个 pod 坐在那里什么都不做时,一个 pod 会因请求而过载并死亡。我正在 minikube 上进行本地开发。
最佳答案
我假设您的 Pod 下有一个微服务架构,对吗?您是否考虑过使用Istio使用 Kubernetes?它是由 Google、IBM 和 Lyft 开源和开发的——旨在为开发人员提供一种供应商中立的方式(这似乎是您正在寻找的方式)来连接、保护、管理和监控云平台上不同微服务的网络(AWS、Azure、谷歌等)。
At a high level, Istio helps reduce the complexity of these deployments, and eases the strain on your development teams. It is a completely open source service mesh that layers transparently onto existing distributed applications. It is also a platform, including APIs that let it integrate into any logging platform, or telemetry or policy system. Istio’s diverse feature set lets you successfully, and efficiently, run a distributed microservice architecture, and provides a uniform way to secure, connect, and monitor microservices.
Since Kubernetes pods don’t have stable IPs, restart of any Istio service pod in the control plane cluster will cause its endpoint to be changed. Therefore, any connection made from remote clusters to that endpoint will be broken. This is documented in Istio issue #4822.
There are a number of ways to either avoid or resolve this scenario. This section provides a high level overview of these options.
- Update the DNS entries
- Use a load balancer service type
- Expose the Istio services via a gateway
In Kubernetes, you can declare a service with a service type to be
LoadBalancer
. A simple solution to the pod restart issue is to use load balancers for the Istio services. You can then use the load balancer IPs as the Istio services’s endpoint IPs to configure the remote clusters.
关于nginx - 允许在 kubernetes 中与 nginx 进行集群内通信,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52065300/
由于 PostgreSQL 人员选择的术语不当,这会让一些人感到困惑,但请耐心等待... 我们需要能够支持多个 PostgreSQL (PG) 集群,并将它们集群在多个服务器上,例如使用repmgr.
Hadoop会跑很多jobs,从Hbase读取数据,写数据到数据库。假设我有 100 个节点,那么有两种方法可以构建我的 Hadoop/Hbase集群: 100节点hadoop&hbase集群(1个b
在kafka中,我们能创建多种类型的集群,一般如下: 单节点——单个broker集群 单节点——多broker集群 多结点——多broker集群 kafka集群中主要有五个组件: Topic:主题主要
我想在两台机器上运行我的 MPI 程序,一台是 ubuntu 18.04,另一台是 Windows 10。是否可以使用不同的操作系统组成一个集群? (我正在使用 MPICH) 如果可能,怎么做?我在网
简介: 更新负载平衡集群中的节点的最佳实践是什么? 我们在 ha 代理负载均衡器后面使用 RabbitMQ 集群来支持我们的客户端轻松集群,as suggested in the RabbitMQ d
我正在尝试创建一个图表,我明确指定了许多节点的等级并指定了集群。以下代码生成我想要的图形类型: digraph { rankdir=LR subgraph cluster0 {
我正在尝试在 RABBITMQ 上进行集群。我添加了 2 个节点,但无法添加第 3 个节点。我已经聚集了 rabbit@node1 和 rabbit@node2。现在我正在尝试将 rabbit@nod
我在 MS Azure 的生产环境中启用了一个双集群多区域 HA。 我被要求重用同一个集群来使用微服务管理几个新项目。 这里的最佳做法是什么?我应该为每个应用程序创建一个集群吗?将不同集群中的每个项目
我正在尝试 flex 搜索,并且很难在具有3个 flex 搜索实例的单台计算机上创建集群。我对实例进行了以下更改: 在所有实例上更改了群集名称{cluster.name:es-stack} 在所有实例
我想创建一个redis集群,仅将特定的redis主机作为主服务器和从服务器。另外,我想自己指定哪个主机应该是哪个主机的副本。 目前,cluster-create command当在任何一个 Redis
我计划在具有负载平衡的集群中设置 Magento,那么是否可以让两个 Magento 安装指向同一个数据库? 如果可能的话 - 我应该如何配置这些服务器的基本 URL?服务器应该具有相同的名称吗? 最
我目前正在计划一个 Web 应用程序,我想计划它最终在集群上运行。 集群将由一个 php web 集群和一个 mysql 集群以及一个独立的存储单元组成(也许是一个集群,我真的不知道它是如何工作的:s
我已经安装了 elasticsearch 2.2.3 并在 2 个节点的集群中配置 节点 1 (elasticsearch.yml) cluster.name: my-cluster node.nam
我正在寻找现有的中间件解决方案,以解决服务集群/分布方面的问题,以实现负载平衡和可用性。我正在考虑基于消息传递系统(更具体地说,JMS)为此构建自己的基础设施。但是,如果可能的话,我宁愿使用已经存在的
在 Hadoop 集群中,数据是自动跨数据节点复制还是必须编程? 如果必须编程,那我该怎么做呢? 最佳答案 dfs.replication 的默认值为 3。这存在于您的 hdfs.site.xml 中
我已经设置了一个具有 1 个主节点和 2 个从节点的 redis 集群,哨兵在所有 3 个节点上运行。 在此设置之前,我的应用程序指向运行 Redis 实例的单个节点。 集群搭建完成后,我的应用应该指
所以,我正在设计一个具有多个 redis 实例的分布式系统来分解大量的流式写入,但发现很难清楚地了解事情是如何工作的。 从我读到的内容来看,正确配置的集群似乎会自动对“错误实例”上的请求进行分片和重定
我有一个关于redis集群架构的问题。 我正在设置一个 Redis 集群,并遵循基本建议:3 硕士3个奴隶 有什么方法可以在 Amazon LB、HAProxy、Nginx 等负载均衡器后面配置此集群
那么集群背后的想法是什么? 您有多台机器具有相同的数据库副本,您在其中传播读/写?这是正确的吗? 这个想法如何运作?当我进行选择查询时,集群会分析哪个服务器的读/写较少并将我的查询指向该服务器? 当您
目录 一.系统环境 二.前言 三.Kubernetes 3.1 概述 3.2 Kube
我是一名优秀的程序员,十分优秀!