Peço desculpas pelo meu inglês.
Recentemente, um dos meus discos no Synology NAS falhou e decidi substituir todos os discos por outros de maior capacidade. Primeiro, substituí o disco defeituoso por um disco de maior capacidade (Disco 1) seguindo as instruções da Synology e tudo correu bem.
Em seguida, substituí outro disco funcional por um disco de maior capacidade (Disco 2). Durante o processo de recuperação (sincronização) do RAID, em torno de 90%, ocorreu algum erro e descobri na interface da web que ambos os meus novos discos (Disco 1 e Disco 2) estavam em status crítico. Li online que poderia substituir o último disco instalado e continuar com a recuperação RAID (sincronização), então substituí o Disco 2 por um novo disco limpo (Disco 3). Este foi provavelmente o meu erro. A interface da web do Synology NAS não ofereceu a recuperação do meu pool de armazenamento como fazia anteriormente. O novo disco (Disco 3) apareceu íntegro e foi isso.
Depois de muita leitura nos fóruns, decidi usar a CLI para tentar a recuperação do RAID, e aqui está o que tenho:
Disco 3 - sata4 Disco 1 - sata3
Não tenho certeza se esse é o caminho certo. Usando o fdisk, criei partições no sata4 baseadas no sata3.
Com os seguintes comandos:
sudo mdadm /dev/md0 --add /dev/sata4p1
sudo mdadm /dev/md1 --add /dev/sata4p2
sudo mdadm /dev/md2 --add /dev/sata4p3
Adicionei as partições correspondentes ao raid10.
Atualmente:
$ cat /proc/mdstat
Personalities : [raid1] [raid10]
md2 : active raid10 sata4p3[5](S) sata3p3[4](E) sata2p3[3] sata1p3[2]
7792588416 blocks super 1.2 64K chunks 2 near-copies [4/3] [E_UU]
md3 : active raid1 nvme1n1p1[0] nvme0n1p1[1]
244193984 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sata4p2[0] sata3p2[1] sata2p2[3] sata1p2[2]
2097088 blocks [4/4] [UUUU]
md0 : active raid1 sata4p1[1] sata3p1[0] sata2p1[3] sata1p1[2]
8388544 blocks [4/4] [UUUU]
unused devices: <none>
$ sudo mdadm -D /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Tue Dec 13 14:54:17 2022
Raid Level : raid1
Array Size : 8388544 (8.00 GiB 8.59 GB)
Used Dev Size : 8388544 (8.00 GiB 8.59 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Sat Jul 6 23:37:15 2024
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
UUID : 66c55d68:831b4099:05d949f7:b0bbaec7
Events : 0.58225
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sata3p1
1 8 49 1 active sync /dev/sata4p1
2 8 1 2 active sync /dev/sata1p1
3 8 17 3 active sync /dev/sata2p1
$ sudo mdadm -D /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Tue Dec 13 14:54:20 2022
Raid Level : raid1
Array Size : 2097088 (2047.94 MiB 2147.42 MB)
Used Dev Size : 2097088 (2047.94 MiB 2147.42 MB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Sat Jul 6 21:05:57 2024
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
UUID : f52a567f:3734ea2b:05d949f7:b0bbaec7
Events : 0.137
Number Major Minor RaidDevice State
0 8 50 0 active sync /dev/sata4p2
1 8 34 1 active sync /dev/sata3p2
2 8 2 2 active sync /dev/sata1p2
3 8 18 3 active sync /dev/sata2p2
$ sudo mdadm -D /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Tue Dec 13 15:16:49 2022
Raid Level : raid10
Array Size : 7792588416 (7431.59 GiB 7979.61 GB)
Used Dev Size : 3896294208 (3715.80 GiB 3989.81 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Jul 6 23:26:24 2024
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : near=2
Chunk Size : 64K
Name : nas:2 (local to host nas)
UUID : 2894354f:67be6652:bbba583f:6cbe1629
Events : 65803
Number Major Minor RaidDevice State
4 8 35 0 faulty active sync set-A /dev/sata3p3
- 0 0 1 removed
2 8 3 2 active sync set-A /dev/sata1p3
3 8 19 3 active sync set-B /dev/sata2p3
5 8 51 - spare /dev/sata4p3
As partições no sata4 foram adicionadas como peças sobressalentes em todos os lugares. md0 e md1 recuperados automaticamente. md2 não se recuperou automaticamente, provavelmente devido ao estado defeituoso de /dev/sata3p3.
Escolhi o caminho certo? Quais são os próximos passos que devo tomar?
Ejete todos os seus novos discos (você pode querer montá-los com Linux ou qualquer outra coisa e apagá-los), coloque o original em funcionamento de volta e reinicie a reconstrução. Você deveria estar bem!