我为我的英语水平道歉。
最近,我的 Synology NAS 中的一个磁盘坏了,我决定将所有磁盘都换成更大容量的磁盘。首先,我按照 Synology 的说明将故障磁盘换成更大容量的磁盘(磁盘 1),一切顺利。
然后,我用一个容量更大的磁盘(磁盘 2)替换了另一个正常工作的磁盘。在 RAID 恢复(同步)过程中,大约 90% 时出现了一些错误,我在 Web 界面中发现我的两个新磁盘(磁盘 1 和磁盘 2)都处于危急状态。我在网上看到我可以替换最后安装的磁盘并继续 RAID 恢复(同步),所以我用一个新的干净磁盘(磁盘 3)替换了磁盘 2。这可能是我的错误。Synology NAS Web 界面没有像以前一样提供恢复我的存储池的功能。新磁盘(磁盘 3)显示为健康,仅此而已。
在论坛上阅读了大量资料后,我决定使用 CLI 尝试 RAID 恢复,结果如下:
磁盘 3 - sata4 磁盘 1 - sata3
我不确定这是否是正确的方法。使用 fdisk,我基于 sata3 在 sata4 上创建了分区。
使用以下命令:
sudo mdadm /dev/md0 --add /dev/sata4p1
sudo mdadm /dev/md1 --add /dev/sata4p2
sudo mdadm /dev/md2 --add /dev/sata4p3
我把相应的分区添加到raid10。
现在:
$ cat /proc/mdstat
Personalities : [raid1] [raid10]
md2 : active raid10 sata4p3[5](S) sata3p3[4](E) sata2p3[3] sata1p3[2]
7792588416 blocks super 1.2 64K chunks 2 near-copies [4/3] [E_UU]
md3 : active raid1 nvme1n1p1[0] nvme0n1p1[1]
244193984 blocks super 1.2 [2/2] [UU]
md1 : active raid1 sata4p2[0] sata3p2[1] sata2p2[3] sata1p2[2]
2097088 blocks [4/4] [UUUU]
md0 : active raid1 sata4p1[1] sata3p1[0] sata2p1[3] sata1p1[2]
8388544 blocks [4/4] [UUUU]
unused devices: <none>
$ sudo mdadm -D /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Tue Dec 13 14:54:17 2022
Raid Level : raid1
Array Size : 8388544 (8.00 GiB 8.59 GB)
Used Dev Size : 8388544 (8.00 GiB 8.59 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Sat Jul 6 23:37:15 2024
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
UUID : 66c55d68:831b4099:05d949f7:b0bbaec7
Events : 0.58225
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sata3p1
1 8 49 1 active sync /dev/sata4p1
2 8 1 2 active sync /dev/sata1p1
3 8 17 3 active sync /dev/sata2p1
$ sudo mdadm -D /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Tue Dec 13 14:54:20 2022
Raid Level : raid1
Array Size : 2097088 (2047.94 MiB 2147.42 MB)
Used Dev Size : 2097088 (2047.94 MiB 2147.42 MB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Sat Jul 6 21:05:57 2024
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
UUID : f52a567f:3734ea2b:05d949f7:b0bbaec7
Events : 0.137
Number Major Minor RaidDevice State
0 8 50 0 active sync /dev/sata4p2
1 8 34 1 active sync /dev/sata3p2
2 8 2 2 active sync /dev/sata1p2
3 8 18 3 active sync /dev/sata2p2
$ sudo mdadm -D /dev/md2
/dev/md2:
Version : 1.2
Creation Time : Tue Dec 13 15:16:49 2022
Raid Level : raid10
Array Size : 7792588416 (7431.59 GiB 7979.61 GB)
Used Dev Size : 3896294208 (3715.80 GiB 3989.81 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Jul 6 23:26:24 2024
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : near=2
Chunk Size : 64K
Name : nas:2 (local to host nas)
UUID : 2894354f:67be6652:bbba583f:6cbe1629
Events : 65803
Number Major Minor RaidDevice State
4 8 35 0 faulty active sync set-A /dev/sata3p3
- 0 0 1 removed
2 8 3 2 active sync set-A /dev/sata1p3
3 8 19 3 active sync set-B /dev/sata2p3
5 8 51 - spare /dev/sata4p3
sata4 上的分区被全部添加为备用分区。md0 和 md1 自动恢复。md2 没有自动恢复,可能是因为 /dev/sata3p3 的状态故障。
我选择的路正确吗?我下一步该怎么做?