- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我一直在尝试使用以下方法在我的 kubernetes 集群上运行 glusterfs 集群:glusterfs-service.json
{
"kind": "Service",
"apiVersion": "v1",
"metadata": {
"name": "glusterfs-cluster"
},
"spec": {
"type": "NodePort",
"selector": {
"name": "gluster"
},
"ports": [
{
"port": 1
}
]
}
}
glusterfs-server.json
:
{
"apiVersion": "extensions/v1beta1",
"kind": "DaemonSet",
"metadata": {
"labels": {
"name": "gluster"
},
"name": "gluster"
},
"spec": {
"selector": {
"matchLabels": {
"name": "gluster"
}
},
"template": {
"metadata": {
"labels": {
"name": "gluster"
}
},
"spec": {
"containers": [
{
"name": "gluster",
"image": "gluster/gluster-centos",
"livenessProbe": {
"exec": {
"command": [
"/bin/bash",
"-c",
"systemctl status glusterd.service"
]
}
},
"readinessProbe": {
"exec": {
"command": [
"/bin/bash",
"-c",
"systemctl status glusterd.service"
]
}
},
"securityContext": {
"privileged": true
},
"volumeMounts": [
{
"mountPath": "/mnt/brick1",
"name": "gluster-brick"
},
{
"mountPath": "/etc/gluster",
"name": "gluster-etc"
},
{
"mountPath": "/var/log/gluster",
"name": "gluster-logs"
},
{
"mountPath": "/var/lib/glusterd",
"name": "gluster-config"
},
{
"mountPath": "/dev",
"name": "gluster-dev"
},
{
"mountPath": "/sys/fs/cgroup",
"name": "gluster-cgroup"
}
]
}
],
"dnsPolicy": "ClusterFirst",
"hostNetwork": true,
"volumes": [
{
"hostPath": {
"path": "/mnt/brick1"
},
"name": "gluster-brick"
},
{
"hostPath": {
"path": "/etc/gluster"
},
"name": "gluster-etc"
},
{
"hostPath": {
"path": "/var/log/gluster"
},
"name": "gluster-logs"
},
{
"hostPath": {
"path": "/var/lib/glusterd"
},
"name": "gluster-config"
},
{
"hostPath": {
"path": "/dev"
},
"name": "gluster-dev"
},
{
"hostPath": {
"path": "/sys/fs/cgroup"
},
"name": "gluster-cgroup"
}
]
}
}
}
}
"volumes": [
{
"name": "< volume name >",
"glusterfs": {
"endpoints": "glusterfs-cluster.default.svc.cluster.local",
"path": "< gluster path >",
"readOnly": false
}
}
]
Operation for "\"kubernetes.io/glusterfs/01a0834e-64ab-11e6-af52-42010a840072-ssl-certificates\" (\"01a0834e-64ab-11e6-af52-42010a840072\")" failed.
No retries permitted until 2016-08-17 18:51:20.61133778 +0000 UTC (durationBeforeRetry 2m0s).
Error: MountVolume.SetUp failed for volume "kubernetes.io/glusterfs/01a0834e-64ab-11e6-af52-42010a840072-ssl-certificates" (spec.Name: "ssl-certificates") pod "01a0834e-64ab-11e6-af52-42010a840072" (UID: "01a0834e-64ab-11e6-af52-42010a840072") with: glusterfs: mount failed:
mount failed: exit status 1
Mounting arguments:
10.132.0.7:ssl_certificates /var/lib/kubelet/pods/01a0834e-64ab-11e6-af52-42010a840072/volumes/kubernetes.io~glusterfs/ssl-certificates
glusterfs [log-level=ERROR log-file=/var/lib/kubelet/plugins/kubernetes.io/glusterfs/ssl-certificates/caddy-server-1648321103-epvdi-glusterfs.log]
Output: Mount failed. Please check the log file for more details. the following error information was pulled from the glusterfs log to help diagnose this issue:
[2016-08-17 18:49:20.583585] E [glusterfsd-mgmt.c:1596:mgmt_getspec_cbk] 0-mgmt: failed to fetch volume file (key:ssl_certificates)
[2016-08-17 18:49:20.610531] E [glusterfsd-mgmt.c:1494:mgmt_getspec_cbk] 0-glusterfs: failed to get the 'volume file' from server
最佳答案
日志清楚地说明了发生了什么:
failed to get endpoints glusterfs-cluster [endpoints "glusterfs-cluster" not found]
"ports": [
{
"port": 1
}
containerPort:
在
DaemonSet
kubernetes 可以指向的一侧
Service
-- 因此,它不会创建
Endpoints
为
(podIP, protocol, port)
元组。因为 glusterfs(合理地)想要联系底层
Pod
s 直接,无需通过
Service
,则无法发现
Pod
s,一切都戛然而止。
关于kubernetes - 使用 DaemonSet 运行 glusterfs 集群,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38978012/
我正尝试按照此文档在 Kubernetes 集群上运行 Cadvisor https://kubernetes.io/docs/concepts/workloads/controllers/daemo
我想在任何节点上运行一个应用程序。每个节点应该始终至少有一个实例,但允许更多实例,主要是在更新期间以防止该 pod(和节点)停机。 Kubernetes 部署更新通常通过启动新的 pod 来工作,一旦
我正在考虑将我的 Kubernetes 集群划分为专用节点区域,供专用用户组独占使用,如所讨论的 here .我想知道污染节点将如何影响 DaemonSets,包括那些对集群操作至关重要的节点(例如
有什么方法可以避免在主服务器上执行作为DaemonSet部署的应用程序? 我已经看到这是预期的行为,但是我想避免以某种方式执行。 常规容器不会在主容器上调度,但DaemonSet容器可以。 如果是,是
我想知道 kubernetes 中的守护进程是否会始终部署到所有节点。 我的困惑来自以下对 daemonset 的描述 A DaemonSet makes sure that all or some
我有一个正在运行的DaemonSet,它正在所有节点上运行。我想将其从节点中删除以完全耗尽它,因为 kubectl dance 不会删除它们。在不删除我的 DaemonSet 的情况下,暂时从节点中删
我的情况是,目前,我正在将我的应用程序作为 Daemon 集运行,并希望将 Datadog 集成到我的基础架构中。 据我了解,守护进程集的目的是确保每个集的一个 pod 在每个节点上运行。 在这里,我
我正在尝试通过服务访问监听端口 18081 的 DaemonSet,但到目前为止未成功。 由 DaemonSet 启动的 pod 工作正常。我可以将端口转发到 pod 和端口 18081,并与端口上公
我正在尝试使用 Kubernetes DaemonSets 并且一点运气都没有。我已经搜索了一个解决方案无济于事。我希望这里有人可以帮忙。 首先,我见过this ticket .重新启动 Contro
我有一个 DaemonSet它创建了 flink 任务管理器 pod,每个节点一个。 节点 假设我有两个节点 节点-A 节点-B pod daemonSet 将创建 节点 A 上的 pod-A 节点
如何在 kubernetes 集群(包括主节点)的所有节点上运行守护进程而不覆盖任何节点的污点? 最佳答案 如果你想运行一个 daemonset 并确保它将被调度到集群中的所有节点上而不管污点。例如,
我的集群中运行着 Consul,每个节点都运行一个 consul-agent 作为 DaemonSet。我还有其他与 Consul 交互的 DaemonSet,因此需要运行一个 consul-agen
我不确定 DaemonSet 中是否存在就绪条件。我的意思是,该 DaemonSet 拥有的所有 pod 都已准备就绪。 我知道 kubectl wait ,不过好像不能检查 DaemonSet 的准
目录 一.系统环境 二.前言 三.DaemonSet 概览 四.创建DaemonSet 4
问题 fluentd 守护进程 list 在 Kubernetes Logging with Fluentd如果启用 RBAC,将导致授权错误。 $ kubectl logs fluentd-4nzv
我一直在尝试使用以下方法在我的 kubernetes 集群上运行 glusterfs 集群: glusterfs-service.json { "kind": "Service", "apiV
我有一个包含 21 个节点的 Google 容器引擎集群,特别是有一个 pod,我需要始终在具有静态 IP 地址的节点上运行(用于出站目的)。 Kubernetes 支持 DaemonSets 这是一
这是我目前的解决方案: LoadBalancer Instance with cloud -> Cluster NodePort Service -> Ingress Controller Servi
DaemonSets确保所有(或部分)节点运行 Pod 的副本。当节点添加到集群时,Pod 也会添加到它们。 kubernetes kubelet 在每个节点上运行,并保持节点上的其他 pod 运行。
当 pod 被 daemonset 控制时,pod 会出现一些错误,状态会是 CrashLoopBackOff ,我想删除这些 Pod 但不想删除 DaemonSet。 所以我想把daemonset缩
我是一名优秀的程序员,十分优秀!