Si vemos un mensaje como md0 degraded quiere decir que nuestra RAID dejo de respaldar, por lo que es necesario sincronizarlo nuevamente.
Todos los comandos debemos correrlos como root
Es muy importante no confundir la particion, porque si no puede perder datos, si no tiene claro este procedimiento, contactenos.
Para saber si hay problemas con el RAID usamos el comando
less /proc/mdstat
y esto nos devuelve algo como:
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4]
md2 : active raid1 sda3[0]
110101404 blocks super 1.0 [2/1] [U_]
bitmap: 63/211 pages [252KB], 256KB chunk
md1 : active (auto-read-only) raid1 sda2[0] sdb2[1]
4192952 blocks super 1.0 [2/2] [UU]
resync=PENDING
bitmap: 8/8 pages [32KB], 256KB chunk
En este ejemplo podemos ver que en md2 hay un parametro que nos dice [2/1] que quiere decir que esta funcionando un disco de dos que tiene el RAID, en el md1 nos muestra [2/2] que quiere decir que los dos discos estan activos.
lo siguiente es ver el estado del RAID que no esta funcionando, en este caso el md2
mdadm -D /dev/md2
lo que nos devuelve
/dev/md2:
Version : 1.00
Creation Time : Tue Oct 9 15:44:00 2012
Raid Level : raid1
Array Size : 110101404 (105.00 GiB 112.74 GB)
Used Dev Size : 110101404 (105.00 GiB 112.74 GB)
Raid Devices : 2
Total Devices : 1
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Apr 29 22:48:20 2013
State : active, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Name : linux:2
UUID : c91c3f99:3178b67b:827815ce:ed0157c4
Events : 1138767
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 0 0 1 removed
Aqui nos dice RAID devices 2 Working devices 1, lo que nos confirma que solo esta funcionando con un disco.
Mas abajo nos muestra una pequeña tabla que nos dice Number Major Minor RaidDevice State, aqui nos muestra que el dispositivo /dev/sda3 esta activo, mientras que el otro disco fue removido del RAID
Ahora veremos si el disco b (en este caso /dev/sdb3) fue realmente removido del RAID.
mdadm -E /dev/sdb3
y nos devuelve
/dev/sdb3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : c91c3f99:3178b67b:827815ce:ed0157c4
Name : linux:2
Creation Time : Tue Oct 9 15:44:00 2012
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 220202808 (105.00 GiB 112.74 GB)
Array Size : 220202808 (105.00 GiB 112.74 GB)
Super Offset : 220202936 sectors
State : clean
Device UUID : c58d3780:43204ba4:bc73f704:c3de9b0c
Internal Bitmap : -106 sectors from superblock
Update Time : Sun Apr 14 08:08:49 2013
Checksum : c58562c9 – correct
Events : 4544
Device Role : Active device 1
Array State : .A (‘A’ == active, ‘.’ == missing)
Al final en Array State podemos ver que esta inactivo con .A (deberia estar AA)
por lo que debemos agregarlo nuevamente con:
mdadm /dev/md2 -a /dev/sdb3
lo que nos devuelve:
mdadm: re-added /dev/sdb3
Es posible tambien que se muestre el estado como degradado pero no removido, de ser asi la particion degradada hay que removerla y reagregarla con
mdadm /dev/md2 -r /dev/sdb3 -a /dev/sdb3
posteriormete volvemos a checar el arreglo con
mdadm -D /dev/md2
y ahora nos deve devolver
/dev/md2:
Version : 1.00
Creation Time : Tue Oct 9 15:44:00 2012
Raid Level : raid1
Array Size : 110101404 (105.00 GiB 112.74 GB)
Used Dev Size : 110101404 (105.00 GiB 112.74 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Apr 29 23:16:31 2013
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : linux:2
UUID : c91c3f99:3178b67b:827815ce:ed0157c4
Events : 1138807
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3
Donde podemos ver que tenemos dos discos activos de dos, y al final es estado dice active sync /dev/sda3 y /dev/sdb3
Si despues de esto la particion no sincronizada nos marca FAULTY es que el disco esta dañado y debemos reemplazarlo.