在打开这篇文章之前,我已经进行了多项研究。我确实找到了很多关于它的帖子,但没有一个真正链接到我的配置,所以我在这里打开它。我在 RAID 1 中有 2 个硬盘:
Disque /dev/sdj : 558,9 GiB, 600127266816 octets, 1172123568 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 5C9A14EB-BD49-435D-A136-62086235D780
Périphérique Start Fin Secteurs Size Type
/dev/sdj1 2048 1172121599 1172119552 558,9G Linux filesystem
Disque /dev/sdk : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 3DCFB2AE-DABD-4B10-96AF-DB389F943DE5
Périphérique Start Fin Secteurs Size Type
/dev/sdk1 2048 1171875839 1171873792 558,8G Linux filesystem
/dev/sdk2 1171875840 1953523711 781647872 372,7G Linux filesystem
sdj1 + sdk1 = RAID1
我正在从这个 [tuto] 中添加 2 个其他磁盘:https://ubuntuforums.org/showthread.php?t=713936用于分区:
`sfdisk /dev/sdd < partitions.sdb`
它以前曾在同一主机上的另一个 RAID 上工作过。所以我最终得到:
Disque /dev/sdg : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 3DCFB2AE-DABD-4B10-96AF-DB389F943DE5
Périphérique Start Fin Secteurs Size Type
/dev/sdg1 2048 1171875839 1171873792 558,8G Linux filesystem
/dev/sdg2 1171875840 1953523711 781647872 372,7G Linux filesystem
Disque /dev/sdi : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 3DCFB2AE-DABD-4B10-96AF-DB389F943DE5
Périphérique Start Fin Secteurs Size Type
/dev/sdi1 2048 1171875839 1171873792 558,8G Linux filesystem
/dev/sdi2 1171875840 1953523711 781647872 372,7G Linux filesystem
所以 :
Personalities : [raid1] [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid10]
md125 : inactive sdn[0]
976224256 blocks super external:/md126/0
md126 : inactive sdn[0](S)
538328 blocks super external:ddf
md227 : active raid6 sdl[7] sdh1[6] sde1[5] sdf1[4] sdd1[3] sdc1[0] sdb1[1]
9766912000 blocks super 1.2 level 6, 512k chunk, algorithm 18 [7/6] [UUUUUU_]
[=========>...........] reshape = 46.8% (915172352/1953382400) finish=3557.0min speed=4864K/sec
bitmap: 2/15 pages [8KB], 65536KB chunk
md127 : active raid1 sdg1[3](S) sdk1[2](S) sdj1[0] sdi1[1]
585805824 blocks super 1.2 [2/2] [UU]
bitmap: 4/5 pages [16KB], 65536KB chunk
unused devices: <none>
md127 是raid1,正如你所见,我同时在raid6 中增长raid5。
为什么我有这个:mdadm: Impossibly level change request for RAID1
有了这个 :sudo mdadm --grow /dev/md127 --level=10 --raid-devices=4 --backup-file=/root/raid1backup
因为RAID6的增长?还是分区不好?还是因为raid阵列已安装并忙于docker容器?
由于我的备份文件,它最终变得非常简单。我希望它能帮助像我这样没有找到足够文档说明如何在干净重启后重新启动增长的人:
它应该会自动恢复工作,您可以使用它来验证它
和
cat /proc/mdstat