我不确定为什么,但在我重新启动我的 ec2 实例后,/dev/md0 没有像往常一样启动。在我看到 /dev/md* 中可用的内容之后,没有看到 /dev/md0,而是那里有一个名为 /dev/md127 的设备。我更新了 fstab 以反映新设备并且能够成功安装它。查看 /proc/mdstat,它使用了最初创建 RAID 的正确的底层临时卷:
[root@ip-10-0-1-21 ~]# cat /proc/mdstat
Personalities : [raid0]
md127 : active raid0 xvdc1[1] xvdb1[0]
870336512 blocks super 1.2 512k chunks
unused devices: <none>
然而,当我运行一个mdadm --detail --scan
不同的设备名称时,会出现:
[root@ip-10-0-1-21 ~]# mdadm --detail --scan
ARRAY /dev/md/ip-10-0-1-21:0 metadata=1.2 name=ip-10-0-1-21:0 UUID=543098de:1e9dc96e:4ce2444c:934bdfdf
设备名称更改是否正常?我必须用新的设备名称更新 /etc/fstab 吗?使用新信息重新运行 /etc/mdadm.conf 是否很重要?这个设备名是/dev/md127还是dev/md/ip-10-0-1-21:0?我想我不确定这里发生了什么。一些见解会很棒。
软件 RAID 具有较新的超级块的价值,它具有超越 /dev/mdN 的卷命名方案。它们包括一个名称组件,即
homehost:volname
. 这使得断开阵列并将其重新连接到另一个系统而不会发生冲突变得更加容易。如果 udev 设置正确,应该有一个名为 的设备
/dev/md/ip-10-0-1-21:0
,这就是您应该在/etc/fstab
更新样式数组中使用的设备。该设备是在每个阵列运行时创建的。该/dev/md127
条目只是为旧工具和方法提供了一个名称,以便也能够使用该数组。您通常不应该使用该名称作为您的安装点,因为这些名称是在启动期间动态分配的。如果您明天添加另一个阵列,则名为/dev/md127
, 的设备可能会/dev/md126
改为。