- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个运行 nginx 的容器,它监听 pod id 的端口 443。它本身运行良好;但是,如果我指定了一个活性探测,那么探测将失败
5m54s Warning Unhealthy Pod Liveness probe failed: Get https://192.168.2.243:443/: EOF
root@ip-192-168-2-243:/etc/nginx# netstat -tupln | grep 443
tcp 0 0 192.168.2.243:1443 0.0.0.0:* LISTEN -
tcp 0 0 192.168.2.243:443 0.0.0.0:* LISTEN 7/nginx: master pro
root@ip-192-168-2-243:/# telnet 192.168.2.243 443
Trying 192.168.2.243...
Connected to 192.168.2.243.
Escape character is '^]'.
^]
telnet> quit
Connection closed.
root@ip-192-168-2-243:/# curl https://192.168.2.243
curl: (77) error setting certificate verify locations:
CAfile: /etc/ssl/certs/ca-certificates.crt
CApath: /etc/ssl/certs
livenessProbe:
initialDelaySeconds: 10
timeoutSeconds: 4
failureThreshold: 3
httpGet:
scheme: HTTPS
port: 443
split_clients "${remote_addr}AAA" $localips {
* 192.168.2.243;
}
skwok-mbp:kubernetes skwok$ kubectl get event -w
LAST SEEN TYPE REASON OBJECT MESSAGE
7s Normal SuccessfulDelete statefulset/mnsvr delete Pod mnsvr-0 in StatefulSet mnsvr successful
0s Normal Killing pod/mnsvr-0 Killing container with id docker://mnsvr-proxy:Need to kill Pod
0s Normal Killing pod/mnsvr-0 Killing container with id docker://mnsvr-node0:Need to kill Pod
0s Normal Killing pod/mnsvr-0 Killing container with id docker://mnsvr-node1:Need to kill Pod
0s Normal SuccessfulCreate statefulset/mnsvr create Pod mnsvr-0 in StatefulSet mnsvr successful
0s Normal Scheduled pod/mnsvr-0 Successfully assigned staging/mnsvr-0 to ip-192-168-2-243.us-west-2.compute.internal
0s Normal Pulled pod/mnsvr-0 Container image "171421899218.dkr.ecr.us-west-2.amazonaws.com/mnsvr-proxy:0.96" already present on machine
0s Normal Created pod/mnsvr-0 Created container
0s Normal Started pod/mnsvr-0 Started container
0s Normal Pulled pod/mnsvr-0 Container image "171421899218.dkr.ecr.us-west-2.amazonaws.com/mnsvr:1.1" already present on machine
0s Normal Created pod/mnsvr-0 Created container
0s Normal Started pod/mnsvr-0 Started container
0s Normal Pulled pod/mnsvr-0 Container image "171421899218.dkr.ecr.us-west-2.amazonaws.com/mnsvr:1.1" already present on machine
0s Normal Created pod/mnsvr-0 Created container
0s Normal Started pod/mnsvr-0 Started container
0s Warning Unhealthy pod/mnsvr-0 Liveness probe failed: Get https://192.168.2.243:443/: EOF
0s Warning Unhealthy pod/mnsvr-0 Liveness probe failed: Get https://192.168.2.243:443/: EOF
0s Warning Unhealthy pod/mnsvr-0 Liveness probe failed: Get https://192.168.2.243:443/: EOF
0s Normal Killing pod/mnsvr-0 Killing container with id docker://mnsvr-proxy:Container failed liveness probe.. Container will be killed and recreated.
0s Normal Pulled pod/mnsvr-0 Container image "171421899218.dkr.ecr.us-west-2.amazonaws.com/mnsvr-proxy:0.96" already present on machine
0s Normal Created pod/mnsvr-0 Created container
0s Normal Started pod/mnsvr-0 Started container
0s Warning Unhealthy pod/mnsvr-0 Liveness probe failed: Get https://192.168.2.243:443/: EOF
0s Warning Unhealthy pod/mnsvr-0 Liveness probe failed: Get https://192.168.2.243:443/: EOF
0s Warning Unhealthy pod/mnsvr-0 Liveness probe failed: Get https://192.168.2.243:443/: EOF
0s Normal Killing pod/mnsvr-0 Killing container with id docker://mnsvr-proxy:Container failed liveness probe.. Container will be killed and recreated.
0s Normal Pulled pod/mnsvr-0 Container image "171421899218.dkr.ecr.us-west-2.amazonaws.com/mnsvr-proxy:0.96" already present on machine
0s Normal Created pod/mnsvr-0 Created container
0s Normal Started pod/mnsvr-0 Started container
0s Warning Unhealthy pod/mnsvr-0 Liveness probe failed: Get https://192.168.2.243:443/: EOF
0s Warning Unhealthy pod/mnsvr-0 Liveness probe failed: Get https://192.168.2.243:443/: EOF
0s Warning BackOff pod/mnsvr-0 Back-off restarting failed container
最佳答案
我认为 EOF 是 TLS 握手问题的症状。我目前也看到了同样的情况。
某些版本的 curl 可以产生类似的结果。 curl 的解决方法似乎是使用 --tls-max 1.2 .
我目前的怀疑是客户端(探针)试图与服务器协商 TLS 1.3 但失败(可能是由于密码)。我想看看我们是否可以将 k8s 探针配置为使用 TLS 1.2。或者,我们可以在服务器端关闭 TLS 1.3。在你的情况下,这是在 nginx 上。就我而言,我有一个带有 JDK 11.0.6 的 jetty 9.4 服务器。
另一种选择可能是升级 k8s。我们似乎在 k8s v1.15 集群中看到了这一点,但在 k8s v1.16.2 集群中没有看到。但我不确定这是由于 k8s 版本还是底层操作系统库(在我的情况下是 CentOS 7)。
关于nginx - livenessprobe 因 EOF 失败(nginx 容器),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58383140/
事件探针应该触发失败容器的重新启动。他们是否尊重默认的状态集deployment and scaling guarantees 。例如。如果同一状态集中的多个 pod 的 active 探测同时失败,
以下是 livenessProbe 的当前配置: livenessProbe: httpGet: path: /heartbeat por
我有以下部署yaml: apiVersion: apps/v1 kind: Deployment metadata: name: gofirst labels: app: gofirs
我们有一个 HTTP livenessProbe 设置,如果服务不健康,它会返回 500,并打印出问题所在。 有什么方法可以查看 livenessProbe 返回的输出吗? 我可以将其记录在应用程序中
事件探针应该触发失败容器的重新启动。他们是否尊重默认的状态集deployment and scaling guarantees 。例如。如果同一状态集中的多个 pod 的 active 探测同时失败,
以下是 livenessProbe 的当前配置: livenessProbe: httpGet: path: /heartbeat por
如何否定要在 Kubernetes 中使用的退出代码状态livenessProbe ? 我将使用 grep命令,我想在下面做一个检查。 返回退出值 0,如果 grep没有命中 返回退出值 1,如果 g
我想定义一个 livenessProbe,其 httpHeader 的值是 secret 的。 此语法无效: livenessProbe: httpGet: path: /healthz
如果活性探测失败,有没有办法告诉 Kubernetes 只销毁一个 pod 并创建一个新的 pod?我现在从日志中看到:我的 node js 应用程序刚刚重新启动并在同一个 pod 中运行。 活性探针
我有一个运行 nginx 的容器,它监听 pod id 的端口 443。它本身运行良好;但是,如果我指定了一个活性探测,那么探测将失败 5m54s Warning Unhealthy
我必须为 kubernetes 中的 node.js 容器 (docker) 创建就绪和活跃度探测器。我的问题是容器不是服务器,所以我不能使用 http 请求来查看它是否处于事件状态。 我的容器运行
在 Dockerfile 中指定 HEALTHCHECK 的新功能对于 Kubernetes 探测指令似乎是多余的。关于什么时候使用有什么建议吗? 最佳答案 如果您使用 Kubernetes,我建议您
我正在尝试使用以下命令使用 podip curl 到 pod 本身,因为目前我不希望 kubelet 请求我的 pod 进行健康检查。 livenessProbe: exec: comma
如何配置我的部署以对 sprint 启动执行器端点进行运行状况检查?我正在使用在端口 9000 上运行的 spring boot 2。(PS:端口转发测试有效) 这是错误: Readiness pro
为什么我在 kubernetes 中需要 3 种不同类型的探针: 启动探针 就绪探针 livenessProbe 有一些关于这个主题的问题( k8s - livenessProbe vs readin
我正在尝试在我的 kubernetes 部署 yaml 文件中传递 livenessProbe 以执行我的应用程序的运行状况。所以,我用 token 值创建了一个 secret ,并按如下方式传递
我是一名优秀的程序员,十分优秀!