损坏磁盘阵列及修复

2025-11-05 14:51:17

1、[root@linuxprobe ~]# mdadm /dev/md0 -f /dev/sdb 

mdadm: set /dev/sdb faulty in /dev/md0 

[root@linuxprobe ~]# mdadm -D /dev/md0 

/dev/md0: 

Version : 1.2 

Creation Time : Fri May 8 08:11:00 2017 

Raid Level : raid10 

Array Size : 41909248 (39.97 GiB 42.92 GB) 

Used Dev Size : 20954624 (19.98 GiB 21.46 GB) 

Raid Devices : 4 

Total Devices : 4 

Persistence : Superblock is persistent 

Update Time : Fri May 8 08:27:18 2017 

State : clean, degraded 

Active Devices : 3 

Working Devices : 3 

Failed Devices : 1 

Spare Devices : 0 

Layout : near=2 

Chunk Size : 512K 

Name : linuxprobe.com:0 (local to host linuxprobe.com) 

UUID : f2993bbd:99c1eb63:bd61d4d4:3f06c3b0 

Events : 21 

Number Major Minor RaidDevice State 

0 0 0 0 removed 

1 8 32 1 active sync /dev/sdc 

2 8 48 2 active sync /dev/sdd 

3 8 64 3 active sync /dev/sde

0 8 16 - faulty /dev/sdb

2、因为RAID10级别的磁盘阵列组允许一组RAID1硬盘组中存在一个故障盘而不影响使用,所以同学们此时可以尝试下在/RAID目录中正常的创建或删除文件都是不受影响的。当购买了新的硬盘存储设备后再使用mdadm命令来予以恢复即可,但因为虚拟机模拟硬盘的原因需要重启后才把新的硬盘添加到RAID磁盘阵列组中。

[root@linuxprobe ~]# umount /RAID 

[root@linuxprobe ~]# mdadm /dev/md0 -a /dev/sdb 

[root@linuxprobe ~]# mdadm -D /dev/md0 

/dev/md0: 

Version : 1.2 

Creation Time : Mon Jan 30 00:08:56 2017 

Raid Level : raid10

Array Size : 41909248 (39.97 GiB 42.92 GB) 

Used Dev Size : 20954624 (19.98 GiB 21.46 GB) 

Raid Devices : 4 

Total Devices : 4 

Persistence : Superblock is persistent 

Update Time : Mon Jan 30 00:19:53 2017 

State : clean 

Active Devices : 4 

Working Devices : 4 

Failed Devices : 0 

Spare Devices : 0 

Layout : near=2 

Chunk Size : 512K 

Name : localhost.localdomain:0 (local to host localhost.localdomain) 

UUID : d3491c05:cfc81ca0:32489f04:716a2cf0 

Events : 56 

Number Major Minor RaidDevice State 

4 8 16 0 active sync /dev/sdb 

1 8 32 1 active sync /dev/sdc 

2 8 48 2 active sync /dev/sdd 

3 8 64 3 active sync /dev/sde[

root@linuxprobe ~]# mount -a

声明:本网站引用、摘录或转载内容仅供网站访问者交流或参考,不代表本站立场,如存在版权或非法内容,请联系站长删除,联系邮箱:site.kefu@qq.com。
猜你喜欢