- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我一直在尝试使用以下方法在我的 kubernetes 集群上运行 glusterfs 集群:glusterfs-service.json
{
"kind": "Service",
"apiVersion": "v1",
"metadata": {
"name": "glusterfs-cluster"
},
"spec": {
"type": "NodePort",
"selector": {
"name": "gluster"
},
"ports": [
{
"port": 1
}
]
}
}
glusterfs-server.json
:
{
"apiVersion": "extensions/v1beta1",
"kind": "DaemonSet",
"metadata": {
"labels": {
"name": "gluster"
},
"name": "gluster"
},
"spec": {
"selector": {
"matchLabels": {
"name": "gluster"
}
},
"template": {
"metadata": {
"labels": {
"name": "gluster"
}
},
"spec": {
"containers": [
{
"name": "gluster",
"image": "gluster/gluster-centos",
"livenessProbe": {
"exec": {
"command": [
"/bin/bash",
"-c",
"systemctl status glusterd.service"
]
}
},
"readinessProbe": {
"exec": {
"command": [
"/bin/bash",
"-c",
"systemctl status glusterd.service"
]
}
},
"securityContext": {
"privileged": true
},
"volumeMounts": [
{
"mountPath": "/mnt/brick1",
"name": "gluster-brick"
},
{
"mountPath": "/etc/gluster",
"name": "gluster-etc"
},
{
"mountPath": "/var/log/gluster",
"name": "gluster-logs"
},
{
"mountPath": "/var/lib/glusterd",
"name": "gluster-config"
},
{
"mountPath": "/dev",
"name": "gluster-dev"
},
{
"mountPath": "/sys/fs/cgroup",
"name": "gluster-cgroup"
}
]
}
],
"dnsPolicy": "ClusterFirst",
"hostNetwork": true,
"volumes": [
{
"hostPath": {
"path": "/mnt/brick1"
},
"name": "gluster-brick"
},
{
"hostPath": {
"path": "/etc/gluster"
},
"name": "gluster-etc"
},
{
"hostPath": {
"path": "/var/log/gluster"
},
"name": "gluster-logs"
},
{
"hostPath": {
"path": "/var/lib/glusterd"
},
"name": "gluster-config"
},
{
"hostPath": {
"path": "/dev"
},
"name": "gluster-dev"
},
{
"hostPath": {
"path": "/sys/fs/cgroup"
},
"name": "gluster-cgroup"
}
]
}
}
}
}
"volumes": [
{
"name": "< volume name >",
"glusterfs": {
"endpoints": "glusterfs-cluster.default.svc.cluster.local",
"path": "< gluster path >",
"readOnly": false
}
}
]
Operation for "\"kubernetes.io/glusterfs/01a0834e-64ab-11e6-af52-42010a840072-ssl-certificates\" (\"01a0834e-64ab-11e6-af52-42010a840072\")" failed.
No retries permitted until 2016-08-17 18:51:20.61133778 +0000 UTC (durationBeforeRetry 2m0s).
Error: MountVolume.SetUp failed for volume "kubernetes.io/glusterfs/01a0834e-64ab-11e6-af52-42010a840072-ssl-certificates" (spec.Name: "ssl-certificates") pod "01a0834e-64ab-11e6-af52-42010a840072" (UID: "01a0834e-64ab-11e6-af52-42010a840072") with: glusterfs: mount failed:
mount failed: exit status 1
Mounting arguments:
10.132.0.7:ssl_certificates /var/lib/kubelet/pods/01a0834e-64ab-11e6-af52-42010a840072/volumes/kubernetes.io~glusterfs/ssl-certificates
glusterfs [log-level=ERROR log-file=/var/lib/kubelet/plugins/kubernetes.io/glusterfs/ssl-certificates/caddy-server-1648321103-epvdi-glusterfs.log]
Output: Mount failed. Please check the log file for more details. the following error information was pulled from the glusterfs log to help diagnose this issue:
[2016-08-17 18:49:20.583585] E [glusterfsd-mgmt.c:1596:mgmt_getspec_cbk] 0-mgmt: failed to fetch volume file (key:ssl_certificates)
[2016-08-17 18:49:20.610531] E [glusterfsd-mgmt.c:1494:mgmt_getspec_cbk] 0-glusterfs: failed to get the 'volume file' from server
最佳答案
日志清楚地说明了发生了什么:
failed to get endpoints glusterfs-cluster [endpoints "glusterfs-cluster" not found]
"ports": [
{
"port": 1
}
containerPort:
在
DaemonSet
kubernetes 可以指向的一侧
Service
-- 因此,它不会创建
Endpoints
为
(podIP, protocol, port)
元组。因为 glusterfs(合理地)想要联系底层
Pod
s 直接,无需通过
Service
,则无法发现
Pod
s,一切都戛然而止。
关于kubernetes - 使用 DaemonSet 运行 glusterfs 集群,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38978012/
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 12 个月前关闭。 Improve
我已经设置了带有 3+1 个节点的 GlusterFS 小集群。 他们都在同一个局域网上。 有 3 台服务器和 1 台笔记本电脑(通过 Wifi),也是 GlusterFS 节点。 笔记本电脑经常与网
我的kafka使用glusterfs作为存储,当我应用kafka的yaml时,pod一直处于ContainerCreating的状态,然后查看pod的describe。我得到以下错误: Warning
我将一个卷配置为副本 3,现在我想使用仲裁器 1 将其转换为副本 3。 我似乎无法找到任何关于这是否可行或者我是否需要移动数据、销毁卷并重新创建它的信息。 我正在运行 glusterfs 4.1.4
我没有找到任何关于如何显示我的 glusterfs 客户端和服务器版本的信息。我认为这应该很容易。我试过“gluster 版本”,它不能工作。 最佳答案 glusterfs --version 和 g
我正在使用 GlusterFS 3.3.2。两台服务器,每台一块砖。卷是“ARCHIVE80” 我可以在 Server2 上挂载卷;如果我触摸一个新文件,它会出现在 Server1 的砖块内。 但是,
我有一个gluster节点,我确实测试了heketi,它正在使用cli创建卷。 这是我的存储类: kind: StorageClass apiVersion: storage.k8s.io/v1 me
说明 : 无法将新 PVC 绑定(bind)到已包含上一次运行的数据的现有 PV(并且是使用 gluster 存储类动态创建的)。 安装了一个 helm release,它创建了 PVC 并从 Glu
我已经在主客户端服务器上配置了 glusterfs,该服务器复制到从服务器到同一路由,glusterfs 是在两台服务器上使用 root 用户安装的。 ** 在两台服务器中我都有以下用户:** oma
我使用以下链接作为指南在 AWS EC2 的 2 个节点上创建了一个集群和复制的文件系统: http://www.gluster.org/category/aws-en/ 我在 AWS EC2 中使用
我已经在 GCP 服务器上将我的 glusterfs 集群设置为 Striped-Replicated,但是我在将文件复制到已安装的卷以及执行 git 操作(git pull、git clone 等)
我计划设置多个节点以使用 glusterfs 创建分布式复制卷 我使用主(也是唯一)分区上的目录在两个节点上创建了一个 gluster 复制卷。 gluster volume create vol_d
我需要设置一个可以存储PB级文件的数据存储(文件主要是小json,图像和csv文件,但其中一些可以是〜100MB二进制文件)。 我正在研究无主控且无单点故障的分布式数据存储。 我找到了Riak和Glu
我正在尝试在 Amazon Linux ami EC2 实例上安装 GlusterFS。我使用以下命令。 首先,我启用 repo: [root@ip-00-00-0-000 /]# wget -P /
如何从客户端测试 GlusterFS 统计信息?即我已在服务器 A 上安装了一个 GFS 卷,安装点为/mnt/volo1。有什么方法可以测试TPS、I/O读写速度等性能吗?有一个选项可以在 GFS
我有一个 glusterfs 设置有两个节点(Node1 和 Node2)。我看到在两个连接之间建立了连接。问题是当我在 Node1 上创建一些文件夹时,它不会在 Node2 上复制它。如果有人修复了
我在 pod 日志中看到以下错误: , the following error information was pulled from the glusterfs log to help diagno
FailedMount MountVolume.SetUp failed for volume "kubernetes.io/glusterfs/f8c3bcce-42010a80007d-glust
我最近遵循了官方指南在Kubernetes上设置Heketi。一切正常,除了每当我创建小于2GB的驱动器时,它都会自动创建2GB的PV。我找不到有关他行为的任何文档。谁能请我理解这种行为? 最佳答案
我需要为我们的一个 gluster 卷添加更多空间。卷是副本 2,位于 LVM 之上。文件系统是 XFS。当前大小为 4TB,我想调整为 6TB。 LVM 在两个副本服务器上都有足够的空闲 PE。
我是一名优秀的程序员,十分优秀!