Eu acidentalmente executei sudo rm -r
no meu ponto de montagem RAID 1. Percebi meu erro imediatamente, entrei em pânico e cliquei CTRL+C
para cancelar. Algum dano já estava feito. O lost+found
diretório e alguns dos meus dados sumiram, mas a maioria deles ainda está lá. Posso recuperar meus dados perdidos, mas estou preocupado com a integridade do RAID e do lost+found
diretório. Então, tenho duas perguntas:
Meu RAID está ok? Suponha que eu tenha deletado todo o ponto de montagem do RAID. Isso deve deletar apenas os dados e o ponto de montagem, mas o RAID em si ainda estaria intacto. Então ele poderia ser remontado e eu poderia restaurar os dados de um backup. Isso está correto?
Preciso me preocupar com o
lost+found
diretório? Se entendi corretamente, olost+found
diretório contém apenas nomes para arquivos não-lniked que foram encontrados no disco. Então, excluí-lo não deve ser um problema, pois os arquivos não-liked em si não são excluídos e serão encontrados novamente e colocados com um novo nome emlost+found
. Isso está correto?
Aqui estão algumas informações de saída do RAID:
user@host:~ $ cat /proc/mdstat
Personalities : [raid1] [linear] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[1] sda1[0]
5860385344 blocks super 1.2 [2/2] [UU]
bitmap: 0/44 pages [0KB], 65536KB chunk
unused devices: <none>
user@host:~ $ sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri May 31 11:25:15 2024
Raid Level : raid1
Array Size : 5860385344 (5.46 TiB 6.00 TB)
Used Dev Size : 5860385344 (5.46 TiB 6.00 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Fri Sep 27 15:14:40 2024
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : host:0 (local to host host)
UUID : ...
Events : 87057
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
user@host:~ $ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 5.5T 0 disk
└─sda1 8:1 0 5.5T 0 part
└─md0 9:0 0 5.5T 0 raid1 /mount/raid1
sdb 8:16 0 5.5T 0 disk
└─sdb1 8:17 0 5.5T 0 part
└─md0 9:0 0 5.5T 0 raid1 /mount/raid1
...
Em resumo, tudo parece bem para mim como leigo, mas estou perguntando aqui para ter certeza. Qualquer ajuda ou pontos de referência seriam muito apreciados!
Não tem problema excluir arquivos com
rm
um mdadm raid. Acontece o dia todo, todos os dias, talvez não tão acidentalmente. Se faltarlost+found
for um problema,fsck
deve lidar com isso.Se você excluiu seu
mdadm.conf
, você terá que criar um novo.Se você estiver aumentando seu raid usando
--backup-file
e tiver deletado esse arquivo de backup, isso pode ser um problema. Mas esse arquivo tem que ser armazenado fora do raid, de qualquer forma.Deixando de lado alguns casos extremos, se nenhum problema apareceu até agora, deve estar tudo bem, no que diz respeito ao mdadm raid.