temos o servidor HP HP ProLiant ML10 Gen 9 com Ubuntu 20.04.4 LTS. Habilitamos o array Raid 1 para dois HDD de 2 TB usando a configuração Intel RST Raid (que é um ataque falso/firmware). Agora meu objetivo é substituir o drive defeituoso e reconstruir o array Raid 1.
Abaixo está a saída do Raid Status cat /proc/mdstat
surya@himalaya:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sda[1](S) sdb[0](S)
6320 blocks super external:imsm
unused devices: <none>
Abaixo está a saída das informações do HDD lsblk
surya@himalaya:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 61.9M 1 loop /snap/core20/1361
loop1 7:1 0 67.9M 1 loop /snap/lxd/22526
loop2 7:2 0 55.5M 1 loop /snap/core18/2284
loop3 7:3 0 43.6M 1 loop /snap/snapd/14978
loop4 7:4 0 55.4M 1 loop /snap/core18/2128
loop5 7:5 0 43.6M 1 loop /snap/snapd/15177
loop6 7:6 0 67.2M 1 loop /snap/lxd/21835
loop7 7:7 0 61.9M 1 loop /snap/core20/1376
sda 8:0 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sdb 8:16 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sr0 11:0 1 1024M 0 rom
Eu usei o comando abaixo para substituir o sdb da unidade com defeito, conforme mostrado acima.
mdadm --manage /dev/md126 --fail /dev/sdb e desliguei o sistema e troquei o disco rígido na mesma porta.
agora quando tento reconstruir o array usando este comando mdadm --manage /dev/md126 --add /dev/sdb recebo a mensagem abaixo.
root@himalaya:~# mdadm --manage /dev/md126 --add /dev/sdb
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
agora a saída de cat /proc/mdstat está abaixo.
root@himalaya:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[0]
1953511424 blocks super external:/md127/0 [2/1] [U_]
md127 : inactive sda[0](S)
3160 blocks super external:imsm
unused devices: <none>
Também tentei inserir a opção Intel ROM no BIOS usando (Ctrl + i) defini o atraso normal da interface do usuário do OROM para 4 segundos na configuração SATA na configuração do BIOS . mas não consegui essa tela para reconstruir a matriz no BIOS. Seria de grande ajuda se alguém pudesse me ajudar sobre como reconstruir e restaurar o array Raid 1.
Então, eu respondo minha própria pergunta para o benefício de todos que precisam lidar com esse tipo de controladores de raid falsos.
Aqui está o que eu encontrei
Curiosamente, o md126 não é a matriz RAID principal aqui, é md127 , então tudo o que fiz foi re-adicionar esta nova unidade ao md127 com:
e o Raid começou a se reconstruir.
agora os resultados de cat/proc/mdstat são:
E essas mudanças também foram refletidas na tela do BIOS. O status dos volumes RAID Intel RST era Normal.
Abaixo está a lista de comandos que usei para restaurar este RAID 1 Array com sucesso.
Para verificar o status do ataque:
Removendo o disco com falha: Primeiro marcamos o disco como com falha e depois o removemos do array:
Em seguida, desligue o sistema e substitua a nova unidade:
Adicionando o novo disco rígido: Primeiro você deve criar exatamente o mesmo particionamento que em /dev/sda:
Para verificar se ambos os discos rígidos estão tendo o mesmo particionamento:
Em seguida, adicionamos esta unidade à matriz RAID (você pode usar md126 ou md127 de acordo com o que for sua matriz RAID principal) abaixo está o comando que usei:
É isso. Agora você pode ver que o Raid começou a ser reconstruído.