- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我使用以下链接作为指南在 AWS EC2 的 2 个节点上创建了一个集群和复制的文件系统:
http://www.gluster.org/category/aws-en/
它的安装和配置非常容易,并且运行良好 - 直到我重新启动任何节点。设置完所有这些后,我会重新启动一个节点,以验证一切都恢复正常,但它永远不会。它仅在安装和配置后无需重新启动即可工作。一旦我重新启动 glusterfs-server 将不会启动,我必须从头开始重新创建整个实例。
我已经在/var/log/glusterfs 中查看日志,在前台模式下运行 glusterd,等等。我没有得到任何跳出来的答案。显示了错误,但谷歌没有提供太多帮助。这是在前台运行 glusterd 的输出:
root@aws:/var/log/glusterfs# /usr/sbin/glusterd -N -p /var/run/glusterd.pid
librdmacm: couldn't read ABI version.
librdmacm: assuming: 4
CMA: unable to get RDMA device list
错误日志记录了一次艰难的启动,最终以关闭告终,但我无法确定原因或解决方案:
[2014-04-16 19:58:09.925937] E [glusterd-store.c:2487:glusterd_resolve_all_bricks] 0-glusterd: resolve brick failed in restore
[2014-04-16 19:58:09.925968] E [xlator.c:390:xlator_init] 0-management: Initialization of volume 'management' failed, review your volfile again
[2014-04-16 19:58:09.926003] E [graph.c:292:glusterfs_graph_init] 0-management: initializing translator failed
[2014-04-16 19:58:09.926019] E [graph.c:479:glusterfs_graph_activate] 0-graph: init failed
[2014-04-16 19:58:09.926392] W [glusterfsd.c:1002:cleanup_and_exit] (-->/usr/sbin/glusterd(main+0x3df) [0x7f801961d8df] (-->/usr/sbin/glusterd(glusterfs_volumes_init+0xb0) [0x7f80196206e0] (-->/usr/sbin/glusterd(glusterfs_process_volfp+0x103) [0x7f80196205f3]))) 0-: received signum (0), shutting down
[2014-04-16 20:40:20.992287] I [glusterfsd.c:1910:main] 0-/usr/sbin/glusterd: Started running /usr/sbin/glusterd version 3.4.3 (/usr/sbin/glusterd -N -p /var/run/glusterd.pid)
[2014-04-16 20:40:20.996223] I [glusterd.c:961:init] 0-management: Using /var/lib/glusterd as working directory
[2014-04-16 20:40:20.997685] I [socket.c:3480:socket_init] 0-socket.management: SSL support is NOT enabled
[2014-04-16 20:40:20.997713] I [socket.c:3495:socket_init] 0-socket.management: using system polling thread
[2014-04-16 20:40:20.999231] W [rdma.c:4197:__gf_rdma_ctx_create] 0-rpc-transport/rdma: rdma_cm event channel creation failed (No such device)
[2014-04-16 20:40:20.999268] E [rdma.c:4485:init] 0-rdma.management: Failed to initialize IB Device
[2014-04-16 20:40:20.999284] E [rpc-transport.c:320:rpc_transport_load] 0-rpc-transport: 'rdma' initialization failed
[2014-04-16 20:40:20.999435] W [rpcsvc.c:1389:rpcsvc_transport_create] 0-rpc-service: cannot create listener, initing the transport failed
[2014-04-16 20:40:23.858537] I [glusterd-store.c:1339:glusterd_restore_op_version] 0-glusterd: retrieved op-version: 2
[2014-04-16 20:40:23.869829] E [glusterd-store.c:1858:glusterd_store_retrieve_volume] 0-: Unknown key: brick-0
[2014-04-16 20:40:23.869880] E [glusterd-store.c:1858:glusterd_store_retrieve_volume] 0-: Unknown key: brick-1
[2014-04-16 20:40:25.611295] E [glusterd-utils.c:4990:glusterd_friend_find_by_hostname] 0-management: error in getaddrinfo: Name or service not known
[2014-04-16 20:40:25.612154] E [glusterd-utils.c:284:glusterd_is_local_addr] 0-management: error in getaddrinfo: Name or service not known
[2014-04-16 20:40:25.612190] E [glusterd-store.c:2487:glusterd_resolve_all_bricks] 0-glusterd: resolve brick failed in restore
[2014-04-16 20:40:25.612221] E [xlator.c:390:xlator_init] 0-management: Initialization of volume 'management' failed, review your volfile again
[2014-04-16 20:40:25.612239] E [graph.c:292:glusterfs_graph_init] 0-management: initializing translator failed
[2014-04-16 20:40:25.612254] E [graph.c:479:glusterfs_graph_activate] 0-graph: init failed
[2014-04-16 20:40:25.612628] W [glusterfsd.c:1002:cleanup_and_exit] (-->/usr/sbin/glusterd(main+0x3df) [0x7fef3d7c58df] (-->/usr/sbin/glusterd(glusterfs_volumes_init+0xb0) [0x7fef3d7c86e0] (-->/usr/sbin/glusterd(glusterfs_process_volfp+0x103) [0x7fef3d7c85f3]))) 0-: received signum (0), shutting down
我在 gluster-user 列表中找到了一个匹配但 Unresolved 线程:
http://www.gluster.org/pipermail/gluster-users/2013-October/037687.html
如果有人能提供任何智慧 - 将不胜感激。
最佳答案
尝试停止音量:
gluster volume stop <volume name>
然后使用“强制”命令重新启动以在每个砖 block 的基础上重建元数据:
gluster volume start <volume name> force
关于ubuntu - GlusterFS 服务器在重启后无法启动,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23119791/
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 12 个月前关闭。 Improve
我已经设置了带有 3+1 个节点的 GlusterFS 小集群。 他们都在同一个局域网上。 有 3 台服务器和 1 台笔记本电脑(通过 Wifi),也是 GlusterFS 节点。 笔记本电脑经常与网
我的kafka使用glusterfs作为存储,当我应用kafka的yaml时,pod一直处于ContainerCreating的状态,然后查看pod的describe。我得到以下错误: Warning
我将一个卷配置为副本 3,现在我想使用仲裁器 1 将其转换为副本 3。 我似乎无法找到任何关于这是否可行或者我是否需要移动数据、销毁卷并重新创建它的信息。 我正在运行 glusterfs 4.1.4
我没有找到任何关于如何显示我的 glusterfs 客户端和服务器版本的信息。我认为这应该很容易。我试过“gluster 版本”,它不能工作。 最佳答案 glusterfs --version 和 g
我正在使用 GlusterFS 3.3.2。两台服务器,每台一块砖。卷是“ARCHIVE80” 我可以在 Server2 上挂载卷;如果我触摸一个新文件,它会出现在 Server1 的砖块内。 但是,
我有一个gluster节点,我确实测试了heketi,它正在使用cli创建卷。 这是我的存储类: kind: StorageClass apiVersion: storage.k8s.io/v1 me
说明 : 无法将新 PVC 绑定(bind)到已包含上一次运行的数据的现有 PV(并且是使用 gluster 存储类动态创建的)。 安装了一个 helm release,它创建了 PVC 并从 Glu
我已经在主客户端服务器上配置了 glusterfs,该服务器复制到从服务器到同一路由,glusterfs 是在两台服务器上使用 root 用户安装的。 ** 在两台服务器中我都有以下用户:** oma
我使用以下链接作为指南在 AWS EC2 的 2 个节点上创建了一个集群和复制的文件系统: http://www.gluster.org/category/aws-en/ 我在 AWS EC2 中使用
我已经在 GCP 服务器上将我的 glusterfs 集群设置为 Striped-Replicated,但是我在将文件复制到已安装的卷以及执行 git 操作(git pull、git clone 等)
我计划设置多个节点以使用 glusterfs 创建分布式复制卷 我使用主(也是唯一)分区上的目录在两个节点上创建了一个 gluster 复制卷。 gluster volume create vol_d
我需要设置一个可以存储PB级文件的数据存储(文件主要是小json,图像和csv文件,但其中一些可以是〜100MB二进制文件)。 我正在研究无主控且无单点故障的分布式数据存储。 我找到了Riak和Glu
我正在尝试在 Amazon Linux ami EC2 实例上安装 GlusterFS。我使用以下命令。 首先,我启用 repo: [root@ip-00-00-0-000 /]# wget -P /
如何从客户端测试 GlusterFS 统计信息?即我已在服务器 A 上安装了一个 GFS 卷,安装点为/mnt/volo1。有什么方法可以测试TPS、I/O读写速度等性能吗?有一个选项可以在 GFS
我有一个 glusterfs 设置有两个节点(Node1 和 Node2)。我看到在两个连接之间建立了连接。问题是当我在 Node1 上创建一些文件夹时,它不会在 Node2 上复制它。如果有人修复了
我在 pod 日志中看到以下错误: , the following error information was pulled from the glusterfs log to help diagno
FailedMount MountVolume.SetUp failed for volume "kubernetes.io/glusterfs/f8c3bcce-42010a80007d-glust
我最近遵循了官方指南在Kubernetes上设置Heketi。一切正常,除了每当我创建小于2GB的驱动器时,它都会自动创建2GB的PV。我找不到有关他行为的任何文档。谁能请我理解这种行为? 最佳答案
我需要为我们的一个 gluster 卷添加更多空间。卷是副本 2,位于 LVM 之上。文件系统是 XFS。当前大小为 4TB,我想调整为 6TB。 LVM 在两个副本服务器上都有足够的空闲 PE。
我是一名优秀的程序员,十分优秀!