这是一个 Mint 21.1 x64 Linux 系统,多年来一直将磁盘添加到 RAID 阵列,直到我们现在拥有一个 10 3TB 的阵列和一个 5 6TB 的阵列。四个 HD 从阵列中掉出,每个两个,显然是由于一个控制器出现故障。我们已经更换了控制器,但这并没有恢复阵列的功能。mdadm --assemble
报告无法启动任何一个阵列,磁盘不足(每个都有两个失败,我并不感到惊讶);mdadm --run
报告 I/O 错误(syslog 似乎表明这是因为它无法启动所有驱动器,但没有迹象表明它试图启动两个明显不愉快的驱动器),但我仍然可以出现故障磁盘并且它们看起来绝对mdadm --examine
正常. 这是功能驱动器的输出:
mdadm --examine /dev/sda
/dev/sda:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 829c0c49:033a810b:7f5bb415:913c91ed
Name : DataBackup:back (local to host DataBackup)
Creation Time : Mon Feb 15 13:43:15 2021
Raid Level : raid5
Raid Devices : 10
Avail Dev Size : 5860268976 sectors (2.73 TiB 3.00 TB)
Array Size : 26371206144 KiB (24.56 TiB 27.00 TB)
Used Dev Size : 5860268032 sectors (2.73 TiB 3.00 TB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=944 sectors
State : clean
Device UUID : 6e072616:2f7079b0:b336c1a7:f222c711
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Apr 2 04:30:27 2023
Bad Block Log : 512 entries available at offset 24 sectors
Checksum : 2faf0b93 - correct
Events : 21397
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 9
Array State : AAAAAA..AA ('A' == active, '.' == missing, 'R' == replacing)
这是一个故障驱动器的输出:
mdadm --examine /dev/sdk
/dev/sdk:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 829c0c49:033a810b:7f5bb415:913c91ed
Name : DataBackup:back (local to host DataBackup)
Creation Time : Mon Feb 15 13:43:15 2021
Raid Level : raid5
Raid Devices : 10
Avail Dev Size : 5860268976 sectors (2.73 TiB 3.00 TB)
Array Size : 26371206144 KiB (24.56 TiB 27.00 TB)
Used Dev Size : 5860268032 sectors (2.73 TiB 3.00 TB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=944 sectors
State : clean
Device UUID : d62b85bc:fb108c56:4710850c:477c0c06
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Apr 2 04:27:31 2023
Bad Block Log : 512 entries available at offset 24 sectors
Checksum : d53202fe - correct
Events : 21392
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 6
Array State : AAAAAAAAAA ('A' == active, '.' == missing, 'R' == replacing)
编辑:这是来自第二个故障驱动器的 --examine 报告;如您所见,它在整个阵列掉线的同时失败了。
# mdadm --examine /dev/sdl
/dev/sdl:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 829c0c49:033a810b:7f5bb415:913c91ed
Name : DataBackup:back (local to host DataBackup)
Creation Time : Mon Feb 15 13:43:15 2021
Raid Level : raid5
Raid Devices : 10
Avail Dev Size : 5860268976 sectors (2.73 TiB 3.00 TB)
Array Size : 26371206144 KiB (24.56 TiB 27.00 TB)
Used Dev Size : 5860268032 sectors (2.73 TiB 3.00 TB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=944 sectors
State : clean
Device UUID : 35ebf7d9:55148a4a:e190671d:6db1c2cf
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Apr 2 04:27:31 2023
Bad Block Log : 512 entries available at offset 24 sectors
Checksum : c13b7b79 - correct
Events : 21392
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 7
Array State : AAAAAAAAAA ('A' == active, '.' == missing, 'R' == replacing)
第二个阵列,5x6TB,两分钟后两个磁盘退出时掉线。这个阵列上的两个故障磁盘和另一个阵列上的两个故障磁盘都连接到一个 4 端口 SATA 控制器卡,当然现在已经被更换了。
我觉得有趣的主要事情是故障驱动器似乎报告自己还活着,但mdadm
并不同意。journalctl
似乎没有回到 4 月 2 日,所以我可能无法查明发生了什么。任何人都知道我可以做些什么来让这只野兽重新上线?
mdadm
在尝试任何可能具有破坏性的命令之前,始终对阵列中的所有驱动器进行映像级备份。有了这些手头的备份,您以后可以尝试在开箱即用的 VM 上进行恢复。Update time
输出中故障驱动器的字段,mdadm --examine /dev/sdX
以确定驱动器从阵列中掉出时的确切事件顺序。有时第一个驱动器故障会被忽视,将旧驱动器联机将在尝试挂载文件系统时导致灾难性故障。mdadm --assemble --force /dev/mdX
在您的情况下,两个驱动器同时发生故障,因此使用或强制联机阵列应该是安全的mdadm --assemble --force --scan
。如果不是这种情况,您应该通过为 指定阵列成员驱动器来强制仅联机掉落阵列的最后一个驱动器mdadm --assemble --force /dev/mdX /dev/sda /dev/sdb missing /dev/sdd
,请注意驱动器的顺序很重要。assemble
我相信您的阵列当前处于降级状态并/dev/sdh
标记为脱机。查看 的输出cat /proc/mdstat
以确定,进行备份,对硬件进行故障排除,然后完全重建阵列。