gluster故障硬盘更换

故障问题:

本机处理:

[root@node2 ~]# gluster volume status

Status of volume: testvol

Gluster process                            TCP Port  RDMA Port  Online  Pid

------------------------------------------------------------------------------

Brick node1:/export/sdb1/brick              49152    0          Y      2684

Brick node2:/export/sdb1/brick              N/A      N/A        N      N/A    # sdb显示不在线

Brick node1:/export/sdc1/brick              49153    0          Y      2703

Brick node2:/export/sdc1/brick              49153    0          Y      2704

Brick node3:/export/sdb1/brick              49152    0          Y      2197

Brick node4:/export/sdb1/brick              49152    0          Y      2207

Brick node3:/export/sdc1/brick              49153    0          Y      2216

Brick node4:/export/sdc1/brick              49153    0          Y      2226

Self-heal Daemon on localhost              N/A      N/A        Y      1393

Self-heal Daemon on node1                  N/A      N/A        Y      3090

Self-heal Daemon on node4                  N/A      N/A        Y      2246

Self-heal Daemon on node3                  N/A      N/A        Y      2236

Task Status of Volume testvol

------------------------------------------------------------------------------

Task                : Rebalance

ID                  : 8b3a04a0-0449-4424-a458-29f602571ea2

Status              : completed

从上方看到 Brick node2:/export/sdb1/brick 不在线,出现了问题

解决:

1.创建新的数据目录,将备用的硬盘格式化,挂载到系统中去(故障主机上执行)

mkfs.xfs -i size=512 /dev/sdd1  #格式化

mkdir /export/sdd1/brick -p  #建立相关的目录

mount /dev/sdd1 /export/sdd1 #挂载

echo "/dev/sdd1 /export/sdd1 xfs defaults 0 0"  >> /etc/fstab #加入开机启动

2. 查询故障点的目录的扩展属性(正常主机执行)

3. 挂载卷并触发自愈(故障主机执行)

[root@node2 ~]# mount -t glusterfs node2:/testvol /mnt  #挂载点随便,不重复就可以,node2:/testvol为之前生成的卷

[root@node2 ~]# mkdir /mnt/test #新建一个卷中不存在的目录并删除,根据你的挂载点的位置变换执行

[root@node2 ~]# rmdir /mnt/test

[root@node2 ~]# setfattr -n trusted.non-existent-key -v abc /mnt  # 设置扩展属性触发自愈

[root@node2 ~]# setfattr -x trusted.non-existent-key /mnt # 设置扩展属性触发自愈

4.检查当前节点是否挂起

正常的主机执行

[root@node1 gluster]# getfattr -d -m. -e hex /export/sdb1/brick/  # /export/sdb1/brick/ 你建立brick的位置

getfattr: Removing leading '/' from absolute path names

# file: export/sdb1/brick/

security.selinux=0x73797374656d5f753a6f626a6563745f723a756e6c6162656c65645f743a733000

trusted.afr.dirty=0x000000000000000000000000

trusted.afr.testvol-client-1=0x000000000000000400000004  <<---- xattrs are marked from source brick node1:/export/sdb1/brick--->>

trusted.gfid=0x00000000000000000000000000000001

trusted.glusterfs.dht=0x0000000100000000000000003ffffffe

trusted.glusterfs.dht.commithash=0x3334343336363233303800

trusted.glusterfs.volume-id=0xe107222fa1134606a9a7fcb16e4c0709

故障主机执行(正常是否可以):

[root@node2 gluster]# gluster volume heal testvol info

Brick node1:/export/sdb1/brick

/

Status: Connected

Number of entries: 1

Brick node2:/export/sdb1/brick

Status: Transport endpoint is not connected

Number of entries: -    # 状态显示传输端点未连接

Brick node1:/export/sdc1/brick

Status: Connected

Number of entries: 0

Brick node2:/export/sdc1/brick

Status: Connected

Number of entries: 0

Brick node3:/export/sdb1/brick

Status: Connected

Number of entries: 0

Brick node4:/export/sdb1/brick

Status: Connected

Number of entries: 0

Brick node3:/export/sdc1/brick

Status: Connected

Number of entries: 0

Brick node4:/export/sdc1/brick

Status: Connected

Number of entries: 0

5. 使用强制提交完成操作

故障机执行

[root@node2 ~]# gluster volume replace-brick testvol node2:/export/sdb1/brick node2:/export/sdd1/brick commit force

volume replace-brick: success: replace-brick commit force operation successful  # 提示成功

[root@node2 ~]# gluster volume status

Status of volume: testvol

Gluster process                            TCP Port  RDMA Port  Online  Pid

------------------------------------------------------------------------------

Brick node1:/export/sdb1/brick              49152    0          Y      2684

Brick node2:/export/sdd1/brick              49154    0          Y      10298  #在线盘已经是sdd

Brick node1:/export/sdc1/brick              49153    0          Y      2703

Brick node2:/export/sdc1/brick              49153    0          Y      2704

Brick node3:/export/sdb1/brick              49152    0          Y      2197

Brick node4:/export/sdb1/brick              49152    0          Y      2207

Brick node3:/export/sdc1/brick              49153    0          Y      2216

Brick node4:/export/sdc1/brick              49153    0          Y      2226

Self-heal Daemon on localhost              N/A      N/A        Y      10307

Self-heal Daemon on node3                  N/A      N/A        Y      9728

Self-heal Daemon on node1                  N/A      N/A        Y      3284

Self-heal Daemon on node4                  N/A      N/A        Y      9736

Task Status of Volume testvol

------------------------------------------------------------------------------

Task                : Rebalance

ID                  : 8b3a04a0-0449-4424-a458-29f602571ea2

Status              : not started

正常主机执行

[root@node1 gluster]# getfattr -d -m. -e hex /export/sdb1/brick/

getfattr: Removing leading '/' from absolute path names

# file: export/sdb1/brick/

security.selinux=0x73797374656d5f753a6f626a6563745f723a756e6c6162656c65645f743a733000

trusted.afr.dirty=0x000000000000000000000000

trusted.afr.testvol-client-1=0x000000000000000000000000  <<---- Pending changelogs are cleared.

trusted.gfid=0x00000000000000000000000000000001

trusted.glusterfs.dht=0x0000000100000000000000003ffffffe

trusted.glusterfs.dht.commithash=0x3334343336363233303800

trusted.glusterfs.volume-id=0xe107222fa1134606a9a7fcb16e4c0709

[root@node2 ~]# gluster volume heal testvol info

Brick node1:/export/sdb1/brick

Status: Connected

Number of entries: 0

Brick node2:/export/sdd1/brick

Status: Connected

Number of entries: 0

Brick node1:/export/sdc1/brick

Status: Connected

Number of entries: 0

Brick node2:/export/sdc1/brick

Status: Connected

Number of entries: 0

Brick node3:/export/sdb1/brick

Status: Connected

Number of entries: 0

Brick node4:/export/sdb1/brick

Status: Connected

Number of entries: 0

Brick node3:/export/sdc1/brick

Status: Connected

Number of entries: 0

Brick node4:/export/sdc1/brick

Status: Connected

Number of entries: 0

方法二:跨主机的同步

假设node2 的sdb1有问题

加入新主机node5,node5磁盘格式化,挂载和gluster的安装过程同上:

将node5加入信任池

[root@node1 brick]# gluster peer probe node5

peer probe: success.

挂载磁盘

[root@node5 ~]# mkdir -p /export/sdb1 && mount /dev/sdb1 /export/sdb1

[root@node5 ~]# echo "/dev/sdb1 /export/sdb1 xfs defaults 0 0"  >> /etc/fstab

[root@node5 ~]#  mount -a && mount

执行下边的命令:

[root@node5 ~]# gluster volume replace-brick testvol node2:/export/sdb1/brick node5:/export/sdb1/brick  commit force

volume replace-brick: success: replace-brick commit force operation successful

顶替的可以继续使用,也可以在sdb1恢复后,数据倒回,命令如下

[root@node2 ~]# gluster volume replace-brick testvol node5:/export/sdb1/brick  node2:/export/sdb1/brick commit force

volume replace-brick: success: replace-brick commit force operation successful

替换之前的状态:

[root@node1 brick]# gluster volume status

Status of volume: testvol

Gluster process                            TCP Port  RDMA Port  Online  Pid

------------------------------------------------------------------------------

Brick node1:/export/sdb1/brick              49152    0          Y      2085

Brick node5:/export/sdb1/brick              49152    0          Y      18229

Brick node1:/export/sdc1/brick              49153    0          Y      2076

Brick node2:/export/sdc1/brick              49153    0          Y      2131

Brick node3:/export/sdb1/brick              49152    0          Y      2197

Brick node4:/export/sdb1/brick              49152    0          Y      2207

Brick node3:/export/sdc1/brick              49153    0          Y      2216

Brick node4:/export/sdc1/brick              49153    0          Y      2226

Self-heal Daemon on localhost              N/A      N/A        Y      10565

Self-heal Daemon on node2                  N/A      N/A        Y      2265

Self-heal Daemon on node3                  N/A      N/A        Y      10416

Self-heal Daemon on node4                  N/A      N/A        Y      10400

Self-heal Daemon on node5                  N/A      N/A        Y      18238

Task Status of Volume testvol

------------------------------------------------------------------------------

Task                : Rebalance

ID                  : 8b3a04a0-0449-4424-a458-29f602571ea2

Status              : not started

替换之后的状态:

[root@node1 gluster]# gluster volume status

Status of volume: testvol

Gluster process                            TCP Port  RDMA Port  Online  Pid

------------------------------------------------------------------------------

Brick node1:/export/sdb1/brick              49152    0          Y      2085

Brick node2:/export/sdb1/brick  (过来了)          49153    0          Y      10208

Brick node1:/export/sdc1/brick              49153    0          Y      2076

Brick node2:/export/sdc1/brick              49152    0          Y      3474

Brick node3:/export/sdb1/brick              49152    0          Y      2197

Brick node4:/export/sdb1/brick              49152    0          Y      2207

Brick node3:/export/sdc1/brick              49153    0          Y      2216

Brick node4:/export/sdc1/brick              49153    0          Y      2226

Self-heal Daemon on localhost              N/A      N/A        Y      10684

Self-heal Daemon on node3                  N/A      N/A        Y      10498

Self-heal Daemon on node5                  N/A      N/A        Y      10075

Self-heal Daemon on node4                  N/A      N/A        Y      10488

Self-heal Daemon on node2                  N/A      N/A        Y      10201

Task Status of Volume testvol

------------------------------------------------------------------------------

Task                : Rebalance

ID                  : 8b3a04a0-0449-4424-a458-29f602571ea2

Status              : not started

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,711评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,932评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,770评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,799评论 1 271
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,697评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,069评论 1 276
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,535评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,200评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,353评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,290评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,331评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,020评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,610评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,694评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,927评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,330评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,904评论 2 341

推荐阅读更多精彩内容