我们有配备 Ubuntu 20.04.4 LTS 的 HP 服务器 HP ProLiant ML10 Gen 9。我们使用 Intel RST Raid 配置(这是一个假/固件 raid)为两个 HDD 大小的 2TB 启用了 Raid 1 阵列。现在我的目标是更换故障驱动器并重建 Raid 1 阵列。
以下是 Raid 状态cat /proc/mdstat的输出
surya@himalaya:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sda[1](S) sdb[0](S)
6320 blocks super external:imsm
unused devices: <none>
下面是 HDD info lsblk 的输出
surya@himalaya:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 61.9M 1 loop /snap/core20/1361
loop1 7:1 0 67.9M 1 loop /snap/lxd/22526
loop2 7:2 0 55.5M 1 loop /snap/core18/2284
loop3 7:3 0 43.6M 1 loop /snap/snapd/14978
loop4 7:4 0 55.4M 1 loop /snap/core18/2128
loop5 7:5 0 43.6M 1 loop /snap/snapd/15177
loop6 7:6 0 67.2M 1 loop /snap/lxd/21835
loop7 7:7 0 61.9M 1 loop /snap/core20/1376
sda 8:0 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sdb 8:16 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sr0 11:0 1 1024M 0 rom
我使用下面的命令来替换有故障的驱动器 sdb,如上图所示。
mdadm --manage /dev/md126 --fail /dev/sdb我关闭了系统并更换了同一端口中的硬盘。
现在,当我尝试使用此命令mdadm --manage /dev/md126 --add /dev/sdb重建阵列时,我收到以下消息。
root@himalaya:~# mdadm --manage /dev/md126 --add /dev/sdb
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
现在cat /proc/mdstat的输出如下。
root@himalaya:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[0]
1953511424 blocks super external:/md127/0 [2/1] [U_]
md127 : inactive sda[0](S)
3160 blocks super external:imsm
unused devices: <none>
我还尝试使用 (Ctrl + i) 在 BIOS 中输入 Intel ROM 选项,我已在 BIOS 设置中的 SATA 配置下将OROM UI 正常延迟设置为 4 秒。但我无法让那个屏幕在 BIOS 中重建阵列。如果有人可以帮助我重建和恢复 Raid 1 阵列,那将是一个很大的帮助。
所以我回答我自己的问题是为了每个必须处理这些类型的假突袭控制器的人的利益。
这是我发现的
有趣的是md126不是这里的主要 RAID 阵列,它是md127,所以我所做的就是将这个新驱动器重新添加到 md127 :
突袭开始自我重建。
现在cat/proc/mdstat的结果是:
这种变化也反映在 BIOS 屏幕中。英特尔 RST RAID 卷状态为正常。
以下是我用来成功恢复此 RAID 1 阵列的命令列表。
检查突袭状态:
移除故障磁盘:首先我们将磁盘标记为故障,然后将其从阵列中移除:
然后关闭系统并更换新驱动器:
添加新硬盘:首先,您必须创建与 /dev/sda 完全相同的分区:
要检查两个硬盘驱动器是否具有相同的分区:
接下来我们将此驱动器添加到 RAID 阵列(您可以相应地使用 md126 或 md127,无论哪个是您的主要 RAID 阵列)下面是我使用的命令:
而已。您现在可以看到 Raid 开始重建。