首页 > 解决方案 > GlusterFS 复制卷的数据同步被 remove-brick 中止

问题描述

使用复制卷的 GlusterFS 存储集群有问题。

我已经在很多方面尝试了几天。我希望有人能帮助我。

首先,我通过以下命令仅使用一块砖创建分布式卷:

gluster volume create my_vol transport tcp 192.168.100.80:/opt/my_brick force

然后,我通过 GlusterFS FUSE 客户端将大量数据(例如 1 GB)写入此卷。

之后,我通过以下命令将此卷从分布式卷更改为复制卷:

gluster volume add-brick my_vol replica 2 192.168.100.81:/opt/my_brick force

GlusterFS 很快告诉我“卷添加砖:成功”。但是,我发现 192.168.100.80 和 192.168.100.81 之间的数据同步仍在后台进行。

现在,我尝试通过以下命令从该卷中删除第一块砖:

yes | gluster volume remove-brick my_vol replica 1 192.168.100.80:/opt/my_brick force

GlusterFS 告诉我“移除砖块会导致数据丢失。你想继续吗?(y/n)卷删除砖块提交力:成功”。

所以,我发现数据的同步被中止了,一些数据永久丢失了

是否有一些命令可以检查 GlusterFS 是否正在同步数据后台

我想知道如何安全地进行删除砖操作,这意味着没有数据丢失。

非常感谢。

标签: synchronizationglusterfs

解决方案


gluster volume heal <volname> info在执行 remove-brick 之前,您必须等到显示零条目被修复。


推荐阅读