我正在使用 mdadm v4.1 运行 Centos 7.8
我在 RAID 10 中配置了 4 个 NVMe(每个 3.2TB),因此可用空间为 50%(6.4TB):
个性 : [raid10] md0 : active raid10 nvme5n1p16 nvme4n1p15 nvme0n1p1[4] nvme3n1p1[3] nvme2n1p1[2] nvme1n1p1 1 6250967040 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU] 位图 [UUUU] 0/4 页0KB],65536KB 块
我试图通过为此结果再添加 2 个 NVMe 来增加可用空间:
执行增长命令后,我有这个:
/dev/md0:
版本:1.2
创建时间:2020 年 9 月 23 日星期三 15:51:45
突袭级别:raid10
阵列大小:6250967040 (5961.39 GiB 6400.99 GB)
使用的开发大小:3125483520 (2980.69 GiB 3200.50 GB)
突袭设备
总数:6设备:6
持久性:超级块是持久的Intent Bitmap : Internal Update Time : Fri Sep 25 11:03:05 2020 State : clean, reshaping Active Devices : 6 Working Devices : 6 Failed Devices : 0 Spare Devices : 0 Layout : near=2 Chunk Size : 512K
一致性策略:位图
Reshape Status : 5% complete Delta Devices : 2, (4->6) Name : db04:0 (local to host db04) UUID : a0d10c0a:fd5fb830:e986407d:5dca539b Events : 7983 Number Major Minor RaidDevice State 4 259 7 0 active sync set-A /dev/nvme0n1p1 1 259 6 1 active sync set-B /dev/nvme1n1p1 2 259 5 2 active sync set-A /dev/nvme2n1p1 3 259 2 3 active sync set-B /dev/nvme3n1p1 6 259 11 4 active sync set-A /dev/nvme5n1p1 5 259 10 5 active sync set-B /dev/nvme4n1p1
阵列大小仍然是 6.4TB 而不是 9.6TB。似乎它正在复制 3 个数据副本。
事实证明,最终的 9.6TB 数组大小是有效的,并且只有在整形后才显示。