- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个用于部署 Pod 和服务的 k8s 模板。我正在使用此模板根据 AKS 上的某些参数(不同名称、标签)部署不同的服务。
某些服务获取其外部 IP,而少数服务外部 IP 始终处于待处理状态。
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S)
service/ca1st-orgc LoadBalancer 10.0.25.227 <pending> 7054:30907/TCP 17m
service/ca1st-orgc-db-mysql LoadBalancer 10.0.97.81 52.13.67.9 3306:31151/TCP 17m
service/kafka1st ClusterIP 10.0.15.90 <none> 9092/TCP,9093/TCP 17m
service/kafka2nd ClusterIP 10.0.17.22 <none> 9092/TCP,9093/TCP 17m
service/kafka3rd ClusterIP 10.0.02.07 <none> 9092/TCP,9093/TCP 17m
service/kubernetes ClusterIP 10.0.0.1 <none> 443/TCP 20m
service/orderer1st-orgc LoadBalancer 10.0.17.19 <pending> 7050:30971/TCP 17m
service/orderer2nd-orgc LoadBalancer 10.0.02.15 13.06.27.31 7050:31830/TCP 17m
service/peer1st-orga LoadBalancer 10.0.10.19 <pending> 7051:31402/TCP,7052:32368/TCP,7053:31786/TCP,5984:30721/TCP 17m
service/peer1st-orgb LoadBalancer 10.0.218.48 13.06.25.13 7051:31892/TCP,7052:30326/TCP,7053:31419/TCP,5984:31882/TCP 17m
service/peer2nd-orga LoadBalancer 10.0.86.64 <pending> 7051:30590/TCP,7052:31870/TCP,7053:30362/TCP,5984:30036/TCP 17m
service/peer2nd-orgb LoadBalancer 10.0.195.212 52.13.58.3 7051:30476/TCP,7052:30091/TCP,7053:30099/TCP,5984:32614/TCP 17m
service/zookeeper1st ClusterIP 10.0.57.192 <none> 2888/TCP,3888/TCP,2181/TCP 17m
service/zookeeper2nd ClusterIP 10.0.174.25 <none> 2888/TCP,3888/TCP,2181/TCP 17m
service/zookeeper3rd ClusterIP 10.0.210.166 <none> 2888/TCP,3888/TCP,2181/TCP 17m
有趣的是,它是用于部署所有相关服务的相同模板。例如,以 peer 为前缀的服务由同一模板部署。
有人遇到过这种情况吗?
Deployment template for an orderer Pod
apiVersion: v1
kind: Pod
metadata:
name: {{ orderer.name }}
labels:
k8s-app: {{ orderer.name }}
type: orderer
{% if (project_version is version('1.4.0','>=') or 'stable' in project_version or 'latest' in project_version) and fabric.metrics is defined and fabric.metrics %}
annotations:
prometheus.io/scrape: 'true'
prometheus.io/path: /metrics
prometheus.io/port: '8443'
prometheus.io/scheme: 'http'
{% endif %}
spec:
{% if creds %}
imagePullSecrets:
- name: regcred
{% endif %}
restartPolicy: OnFailure
volumes:
- name: task-pv-storage
persistentVolumeClaim:
claimName: fabriccerts
affinity:
podAntiAffinity:
preferredDuringSchedulingIgnoredDuringExecution:
- weight: 1
podAffinityTerm:
labelSelector:
matchExpressions:
- key: type
operator: In
values:
- orderer
topologyKey: kubernetes.io/hostname
containers:
- name: {{ orderer.name }}
image: {{ fabric.repo.url }}fabric-orderer:{{ fabric.baseimage_tag }}
{% if 'latest' in project_version or 'stable' in project_version %}
imagePullPolicy: Always
{% else %}
imagePullPolicy: IfNotPresent
{% endif %}
env:
{% if project_version is version('1.3.0','<') %}
- { name: "ORDERER_GENERAL_LOGLEVEL", value: "{{ fabric.logging_level | default('ERROR') | lower }}" }
{% elif project_version is version('1.4.0','>=') or 'stable' in project_version or 'latest' in project_version %}
- { name: "FABRIC_LOGGING_SPEC", value: "{{ fabric.logging_level | default('ERROR') | lower }}" }
{% endif %}
- { name: "ORDERER_GENERAL_LISTENADDRESS", value: "0.0.0.0" }
- { name: "ORDERER_GENERAL_GENESISMETHOD", value: "file" }
- { name: "ORDERER_GENERAL_GENESISFILE", value: "/etc/hyperledger/fabric/artifacts/keyfiles/genesis.block" }
- { name: "ORDERER_GENERAL_LOCALMSPID", value: "{{ orderer.org }}" }
- { name: "ORDERER_GENERAL_LOCALMSPDIR", value: "/etc/hyperledger/fabric/artifacts/keyfiles/{{ orderer.org }}/orderers/{{ orderer.name }}.{{ orderer.org }}/msp" }
- { name: "ORDERER_GENERAL_TLS_ENABLED", value: "{{ tls | lower }}" }
{% if tls %}
- { name: "ORDERER_GENERAL_TLS_PRIVATEKEY", value: "/etc/hyperledger/fabric/artifacts/keyfiles/{{ orderer.org }}/orderers/{{ orderer.name }}.{{ orderer.org }}/tls/server.key" }
- { name: "ORDERER_GENERAL_TLS_CERTIFICATE", value: "/etc/hyperledger/fabric/artifacts/keyfiles/{{ orderer.org }}/orderers/{{ orderer.name }}.{{ orderer.org }}/tls/server.crt" }
- { name: "ORDERER_GENERAL_TLS_ROOTCAS", value: "[/etc/hyperledger/fabric/artifacts/keyfiles/{{ orderer.org }}/orderers/{{ orderer.name }}.{{ orderer.org }}/tls/ca.crt]" }
{% endif %}
{% if (project_version is version_compare('2.0.0','>=') or ('stable' in project_version or 'latest' in project_version)) and fabric.consensus_type is defined and fabric.consensus_type == 'etcdraft' %}
- { name: "ORDERER_GENERAL_CLUSTER_CLIENTPRIVATEKEY", value: "/etc/hyperledger/fabric/artifacts/keyfiles/{{ orderer.org }}/orderers/{{ orderer.name }}.{{ orderer.org }}/tls/server.key" }
- { name: "ORDERER_GENERAL_CLUSTER_CLIENTCERTIFICATE", value: "/etc/hyperledger/fabric/artifacts/keyfiles/{{ orderer.org }}/orderers/{{ orderer.name }}.{{ orderer.org }}/tls/server.crt" }
- { name: "ORDERER_GENERAL_CLUSTER_ROOTCAS", value: "[/etc/hyperledger/fabric/artifacts/keyfiles/{{ orderer.org }}/orderers/{{ orderer.name }}.{{ orderer.org }}/tls/ca.crt]" }
{% elif fabric.consensus_type | default('kafka') == 'kafka' %}
- { name: "ORDERER_KAFKA_RETRY_SHORTINTERVAL", value: "1s" }
- { name: "ORDERER_KAFKA_RETRY_SHORTTOTAL", value: "30s" }
- { name: "ORDERER_KAFKA_VERBOSE", value: "true" }
{% endif %}
{% if mutualtls %}
{% if project_version is version('1.1.0','>=') or 'stable' in project_version or 'latest' in project_version %}
- { name: "ORDERER_GENERAL_TLS_CLIENTAUTHREQUIRED", value: "true" }
{% else %}
- { name: "ORDERER_GENERAL_TLS_CLIENTAUTHENABLED", value: "true" }
{% endif %}
- { name: "ORDERER_GENERAL_TLS_CLIENTROOTCAS", value: "[{{ rootca | list | join (", ")}}]" }
{% endif %}
{% if (project_version is version('1.4.0','>=') or 'stable' in project_version or 'latest' in project_version) and fabric.metrics is defined and fabric.metrics %}
- { name: "ORDERER_OPERATIONS_LISTENADDRESS", value: ":8443" }
- { name: "ORDERER_OPERATIONS_TLS_ENABLED", value: "false" }
- { name: "ORDERER_METRICS_PROVIDER", value: "prometheus" }
{% endif %}
{% if fabric.orderersettings is defined and fabric.orderersettings.ordererenv is defined %}
{% for pkey, pvalue in fabric.orderersettings.ordererenv.items() %}
- { name: "{{ pkey }}", value: "{{ pvalue }}" }
{% endfor %}
{% endif %}
{% include './resource.j2' %}
volumeMounts:
- { mountPath: "/etc/hyperledger/fabric/artifacts", name: "task-pv-storage" }
command: ["orderer"]
Deployment config for LoadBalancer
kind: Service
apiVersion: v1
metadata:
labels:
k8s-app: {{ orderer.name }}
name: {{ orderer.name }}
spec:
selector:
k8s-app: {{ orderer.name }}
{% if fabric.k8s.exposeserviceport %}
type: LoadBalancer
{% endif %}
ports:
- name: port1
port: 7050
{% if fabric.metrics is defined and fabric.metrics %}
- name: scrapeport
port: 8443
{% endif %}
Interesting thing is, I don't see any Events(on running kubectl describe service orderer1st-orgc) for the services which haven't got their External-IP
Session Affinity: None
External Traffic Policy: Cluster
Events: <none>
请分享您的想法。
最佳答案
我的集群出现问题。我不确定它是什么,但是同一组 LoadBalancer 从未用于获取其公共(public) IP。无论您清理所有 pvc、服务和 pod 多少次。我删除了集群并重新创建了一个。在新集群中一切都按预期运行。
所有 LoadBalancer 都获得其公共(public) IP。
关于azure - Kubernetes:AKS 上的某些服务 (LoadBalancer) 的外部 IP 正在等待处理,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55980984/
Nginx默认支持'Round Robin'负载平衡,如果我将kubernetes服务类型设置为'LoadBalancer'(我认为这是服务提供商的network-LB?如this),那不会在堆栈中形
本文整理了Java中com.netflix.loadbalancer.ZoneAwareLoadBalancer类的一些代码示例,展示了ZoneAwareLoadBalancer类的具体用法。这些代码
本文整理了Java中com.netflix.loadbalancer.ZoneAvoidanceRule类的一些代码示例,展示了ZoneAvoidanceRule类的具体用法。这些代码示例主要来源于G
本文整理了Java中com.netflix.loadbalancer.ZoneAffinityServerListFilter类的一些代码示例,展示了ZoneAffinityServerListFil
我有一个 clusterIP 类型的 k8s 服务..我需要通过 CLI 更改以下配置 http 端口到 https 端口 端口号 负载均衡器的类型 有没有办法做到这一点..? 最佳答案 您无法删除现
我正在尝试使用 python/paramiko 将 SFTP 服务器部署到 AKS 中。 这已成功部署到裸机开发服务器中,但是我在将其部署到 AKS 中时遇到问题。 问题在创建 LoadBalance
我有 6 个 Pod,每个 Pod 应用程序从不同的端口监听,每个 Pod 都有自己的 IP 地址。 我有 Kubernetes LoadBalancer 服务 (Azure LoadBalancer
我有一项使用 Azure Kubernetes 群集和 AKS 负载均衡器的服务。我想将一些 HTTP(客户端)请求转发到所有实例。一般来说,有什么方法可以使用 AKS 或 Kubernetes 配置
Kubernetes 同时拥有 Ingress (在服务前面)和服务类型: LoadBalancer .这些似乎做相同的事情:允许公共(public)流量进入与服务选择器匹配的 pod。各自的优点和缺
我有一项使用 Azure Kubernetes 群集和 AKS 负载均衡器的服务。我想将一些 HTTP(客户端)请求转发到所有实例。一般来说,有什么方法可以使用 AKS 或 Kubernetes 配置
我有一个关于使用 Spring-Cloud Netflix 进行客户端负载平衡的问题。 启用负载平衡后,Ribbon 将选择要调用的服务器。选择规则取决于被选择的 IRule 实现。 以下实现之间有什
更新: 我编辑了我的问题,使其更加关注问题。 上下文 编写代码以了解负载平衡的工作原理。Debian 64 位。 127.0.0.1:36001 上的负载均衡器后端位于 127.0.0.1:36000
我正在尝试学习如何将 Kibernetes 与 Minikube 一起使用,并具有以下部署和服务: --- kind: Service apiVersion: v1 metadata: name:
apiVersion: v1 kind: Service metadata: name: nginx labels: name: nginx spec: ports: #
我用 nginx-ingress-controller:0.24.1 (Inspired by) 我想将 DNS A 记录设置为 LB IP 地址,以便将其连接到根中具有公共(public) inde
我有一个配置为 LoadBalancer 的服务,在运行 1.9.11 的五节点集群上运行。 LoadBalancer 位于运行 ASP.NET Core Web 应用程序的三个 pod 前面(该应用
我刚刚开始使用 Kubernetes,我对 NodePort 和 LoadBalancer 类型的服务之间的区别感到困惑。 我理解的区别是 LoadBalancer 不支持 UDP,但除此之外,每当我
我正在尝试在 Azure AKS 中部署 ftp 服务器镜像。为了向公众公开服务器,我添加了一个 LoadBalancer 类型的服务。 apiVersion: v1 kind: Service me
我在负载均衡器 (F5) 后面运行 2 个 OAuth2 授权服务器实例。我正在使用 JdbcTokenStore。一切工作正常,但有时我会收到错误“处理错误:InvalidGrantExceptio
我使用 Helm 图表在我的测试集群上安装了 Spinnaker。当我尝试创建 LoadBalancer 时,我注意到对话框中的“命名空间”下拉列表是空白的。当我刚刚尝试创建负载均衡器时,我看到错误“
我是一名优秀的程序员,十分优秀!