synchronization - GlusterFS 复制卷的数据同步被 remove-brick 中止
问题描述
使用复制卷的 GlusterFS 存储集群有问题。
我已经在很多方面尝试了几天。我希望有人能帮助我。
首先,我通过以下命令仅使用一块砖创建分布式卷:
gluster volume create my_vol transport tcp 192.168.100.80:/opt/my_brick force
然后,我通过 GlusterFS FUSE 客户端将大量数据(例如 1 GB)写入此卷。
之后,我通过以下命令将此卷从分布式卷更改为复制卷:
gluster volume add-brick my_vol replica 2 192.168.100.81:/opt/my_brick force
GlusterFS 很快告诉我“卷添加砖:成功”。但是,我发现 192.168.100.80 和 192.168.100.81 之间的数据同步仍在后台进行。
现在,我尝试通过以下命令从该卷中删除第一块砖:
yes | gluster volume remove-brick my_vol replica 1 192.168.100.80:/opt/my_brick force
GlusterFS 告诉我“移除砖块会导致数据丢失。你想继续吗?(y/n)卷删除砖块提交力:成功”。
所以,我发现数据的同步被中止了,一些数据永久丢失了!
是否有一些命令可以检查 GlusterFS 是否正在同步数据后台?
我想知道如何安全地进行删除砖操作,这意味着没有数据丢失。
非常感谢。
解决方案
gluster volume heal <volname> info
在执行 remove-brick 之前,您必须等到显示零条目被修复。
推荐阅读
- ios - Swift iOS CollectionView xib 属性为零
- jakarta-ee - Keycloak 反向通道注销
- html - 如何应用比例效果,但不是悬停
- javascript - ObjectConstructor 类型上不存在属性“条目”
- cassandra - 数据中心异步复制有多快?
- c# - create new object within C# Linq syntax on Select
- android - Android 上的 JetBrains xodus
- c++ - 超素数。如何生成恰好具有 n 位数的数字?
- django - Django all-auth 自定义登录表单安全性?
- macos - 在 Mac 中以不同的域用户身份运行 chrome