- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
环境:(内部部署):-
K8s-Master Server: Standalone Physical server.
OS - CentOS Linux release 8.2.2004 (Core)
K8s Client Version: v1.18.6
K8s Server Version: v1.18.6
K8S-Worker node OS – CentOS Linux release 8.2.2004 (Core) - Standalone Physical server.
我已经按照下面给出的链接说明安装了 Kubernetes。
https://www.tecmint.com/install-a-kubernetes-cluster-on-centos-8/
但是 weave-net 命名空间显示 – CrashLoopBackOff
[root@K8S-Master ~]# kubectl get pods -o wide --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
default test-pod 1/1 Running 0 156m 10.88.0.83 k8s-worker-1 <none> <none>
kube-system coredns-66bff467f8-99dww 1/1 Running 1 2d23h 10.88.0.5 K8S-Master <none> <none>
kube-system coredns-66bff467f8-ghk5g 1/1 Running 2 2d23h 10.88.0.6 K8S-Master <none> <none>
kube-system etcd-K8S-Master 1/1 Running 1 2d23h 100.101.102.103 K8S-Master <none> <none>
kube-system kube-apiserver-K8S-Master 1/1 Running 1 2d23h 100.101.102.103 K8S-Master <none> <none>
kube-system kube-controller-manager-K8S-Master 1/1 Running 1 2d23h 100.101.102.103 K8S-Master <none> <none>
kube-system kube-proxy-btgqb 1/1 Running 1 2d23h 100.101.102.103 K8S-Master <none> <none>
kube-system kube-proxy-mqg85 1/1 Running 1 2d23h 100.101.102.104 k8s-worker-1 <none> <none>
kube-system kube-scheduler-K8S-Master 1/1 Running 2 2d23h 100.101.102.103 K8S-Master <none> <none>
kube-system weave-net-2nxpk 1/2 CrashLoopBackOff 848 2d23h 100.101.102.104 k8s-worker-1 <none> <none>
kube-system weave-net-n8wv9 1/2 CrashLoopBackOff 846 2d23h 100.101.102.103 K8S-Master <none> <none>
[root@K8S-Master ~]# kubectl logs weave-net-2nxpk -c weave --namespace=kube-system
ipset v7.2: Set cannot be destroyed: it is in use by a kernel component
[root@K8S-Master ~]# kubectl logs weave-net-n8wv9 -c weave --namespace=kube-system
ipset v7.2: Set cannot be destroyed: it is in use by a kernel component
[root@K8S-Master ~]# kubectl describe pod/weave-net-n8wv9 -n kube-system
Name: weave-net-n8wv9
Namespace: kube-system
Priority: 2000001000
Priority Class Name: system-node-critical
Node: K8S-Master/100.101.102.103
Start Time: Mon, 03 Aug 2020 10:56:12 +0530
Labels: controller-revision-hash=6768fc7ccf
name=weave-net
pod-template-generation=1
Annotations: <none>
Status: Running
IP: 100.101.102.103
IPs:
IP: 100.101.102.103
Controlled By: DaemonSet/weave-net
Containers:
weave:
Container ID: docker://efeb277639ac8262c8864f2d598606e19caadbb65cdda4645d67589eab13d109
Image: docker.io/weaveworks/weave-kube:2.6.5
Image ID: docker-pullable://weaveworks/weave-kube@sha256:703a045a58377cb04bc85d0f5a7c93356d5490282accd7e5b5d7a99fe2ef09e2
Port: <none>
Host Port: <none>
Command:
/home/weave/launch.sh
State: Waiting
Reason: CrashLoopBackOff
Last State: Terminated
Reason: Error
Exit Code: 1
Started: Thu, 06 Aug 2020 20:18:21 +0530
Finished: Thu, 06 Aug 2020 20:18:21 +0530
Ready: False
Restart Count: 971
Requests:
cpu: 10m
Readiness: http-get http://127.0.0.1:6784/status delay=0s timeout=1s period=10s #success=1 #failure=3
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/host/etc from cni-conf (rw)
/host/home from cni-bin2 (rw)
/host/opt from cni-bin (rw)
/host/var/lib/dbus from dbus (rw)
/lib/modules from lib-modules (rw)
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-p9ltl (ro)
/weavedb from weavedb (rw)
weave-npc:
Container ID: docker://33f9fed68c452187490e261830a283c1ec9361aba01b86b60598dcc871ca1b11
Image: docker.io/weaveworks/weave-npc:2.6.5
Image ID: docker-pullable://weaveworks/weave-npc@sha256:0f6166e000faa500ccc0df53caae17edd3110590b7b159007a5ea727cdfb1cef
Port: <none>
Host Port: <none>
State: Running
Started: Thu, 06 Aug 2020 17:13:35 +0530
Last State: Terminated
Reason: Error
Exit Code: 1
Started: Thu, 06 Aug 2020 11:38:19 +0530
Finished: Thu, 06 Aug 2020 17:08:40 +0530
Ready: True
Restart Count: 4
Requests:
cpu: 10m
Environment:
HOSTNAME: (v1:spec.nodeName)
Mounts:
/run/xtables.lock from xtables-lock (rw)
/var/run/secrets/kubernetes.io/serviceaccount from weave-net-token-p9ltl (ro)
Conditions:
Type Status
Initialized True
Ready False
ContainersReady False
PodScheduled True
Volumes:
weavedb:
Type: HostPath (bare host directory volume)
Path: /var/lib/weave
HostPathType:
cni-bin:
Type: HostPath (bare host directory volume)
Path: /opt
HostPathType:
cni-bin2:
Type: HostPath (bare host directory volume)
Path: /home
HostPathType:
cni-conf:
Type: HostPath (bare host directory volume)
Path: /etc
HostPathType:
dbus:
Type: HostPath (bare host directory volume)
Path: /var/lib/dbus
HostPathType:
lib-modules:
Type: HostPath (bare host directory volume)
Path: /lib/modules
HostPathType:
xtables-lock:
Type: HostPath (bare host directory volume)
Path: /run/xtables.lock
HostPathType: FileOrCreate
weave-net-token-p9ltl:
Type: Secret (a volume populated by a Secret)
SecretName: weave-net-token-p9ltl
Optional: false
QoS Class: Burstable
Node-Selectors: <none>
Tolerations: :NoSchedule
:NoExecute
node.kubernetes.io/disk-pressure:NoSchedule
node.kubernetes.io/memory-pressure:NoSchedule
node.kubernetes.io/network-unavailable:NoSchedule
node.kubernetes.io/not-ready:NoExecute
node.kubernetes.io/pid-pressure:NoSchedule
node.kubernetes.io/unreachable:NoExecute
node.kubernetes.io/unschedulable:NoSchedule
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Warning BackOff 2m3s (x863 over 3h7m) kubelet, K8S-Master Back-off restarting failed container
[root@K8S-Master ~]# journalctl -u kubelet
Aug 06 20:36:56 K8S-Master kubelet[2647]: I0806 20:36:56.549156 2647 topology_manager.go:219] [topologymanager] RemoveContainer - Container ID: f873d>
Aug 06 20:36:56 K8S-Master kubelet[2647]: E0806 20:36:56.549515 2647 pod_workers.go:191] Error syncing pod e7511fe6-c60f-4833-bfb6-d59d6e8720e3 ("wea>
我的 K8s 安装过程中有些配置错误?有人可以提供解决方法来解决这个问题。
最佳答案
我已经使用 Calico 网络
重新安装了 K8s,现在所有命名空间都按预期运行。
关于docker - Kubernetes 编织网络状态显示 - CrashLoopBackOff,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63259095/
我的图片托管在 GCR 上。我想在我的本地系统 (mac) 上创建 Kubernetes 集群。 我遵循的步骤: 创建一个 imagePullSecretKey 创建通用 key 以与 GCP 通信。
当 Kubernetes Pod 进入 CrashLoopBackOff 状态时,您将修复根本问题。如何强制重新安排时间? 最佳答案 要应用新配置,应创建新 Pod(旧 Pod 将被删除)。 如果您的
我正在设置具有高可用性的kafka和zookeeper集群。我有2个kafka代理(pod1,pod2)和3个zookeeper(pod1,pod2,pod3)。设置工作正常。当我进入一个kafka经
我使用 Google Kubernetes Engine 并且故意在代码中添加了错误。我希望滚动更新会在发现状态为 CrashLoopBackOff 时停止,但事实并非如此。 在此 page , 他们
环境:(内部部署):- K8s-Master Server: Standalone Physical server. OS - CentOS Linux release 8.2.2004 (Core)
我无法在我的1个主节点群集上启动kube-apiserver。 kubelet继续尝试启动服务,但始终获得CrashLoopBackOff。 我试图使用docker run命令运行容器,并且得到以下日
虽然有一些像我一样的问题,但修复对我不起作用。 我正在使用 kubernetes v1.9.3 二进制文件并使用 flannel 和 calico 来设置 kubernetes 集群。应用 calic
Error from server: Get https://10.128.15.203:10250/containerLogs/default/postgres-54db6bdb8b-cmrsb/p
我正在使用kubeadm在CentOS 7.4 / Docker 1.12.6上创建kubernetes v1.9.3集群。 我正在按照Using kubeadm to Create a Cluste
我正在创建一个带有一个初始化容器的复制 Controller 。但是 init 容器无法启动并且 pod 的状态是: NAME READY STAT
我有以下设置: docker hub 上的 docker 镜像 omg/telperion一个 kubernetes 集群(有 4 个节点,每个节点有 ~50GB RAM)和大量资源 我按照教程将图像
我是 Kubernetes 的菜鸟。我正在尝试按照一些方法来启动并运行一个小集群,但是我遇到了麻烦...... 我有一个主节点和 (4) 个节点,都运行 Ubuntu 16.04 在所有节点上安装 d
我正在尝试将容器部署到 AKS,但 Pod 始终处于 CrashLoopBackOff 状态并重新启动。我尝试了不同的 Pod,但显然与这方面无关。 该 Pod 具有非常简单的功能行为,可以在本地正常
我有 2 个虚拟机节点。两者可以通过主机名(通过/etc/hosts)或通过 IP 地址相互查看。已将 kubeadm 配置为 master。另一个作为工作节点。按照说明( http://kubern
我按照以下指南使用 kubeadm 创建了一个 HA 集群: https://kubernetes.io/docs/setup/production-environment/tools/kubeadm
我是OpenWhisk的新手,在安装过程中遇到了一些困难。 由于Pod中的错误,Ngnix Pod正在CrashLoopBackOff中运行。 2018/07/02 16:14:27 [emerg]
我在 ubuntu 16.04 中设置了 kubernetes。我正在使用 kube 版本 1.13.1 并使用 weave 进行网络连接。我已经使用以下方法初始化了集群: sudo kubeadm
我定期看到容器 状态:终止 - OOMKilled (退出代码:137) 但是被调度到内存充足的节点 $ k get statefulset -n metrics NAME
我在 Kubernetes 1.0 中运行一个集群,我有一些容器我想定期运行,作为 pod 中的 sidecar 容器——通常是推送或拉取备份。我通过使用包含我想要备份的数据的容器和用于备份它的 si
我正在使用 kubernetes 集群使用 kubectl create -f dummy.yaml 部署图像。我的图像在 docker hub 中是公开的,图像大小为 1.3 GB。 图像拉取成功但
我是一名优秀的程序员,十分优秀!