AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / user-1104527

sqw's questions

Martin Hope
sqw
Asked: 2024-07-07 01:05:05 +0800 CST

mdadm:在 Synology Nas 上恢复 RAID 10

  • 9

我为我的英语水平道歉。

最近,我的 Synology NAS 中的一个磁盘坏了,我决定将所有磁盘都换成更大容量的磁盘。首先,我按照 Synology 的说明将故障磁盘换成更大容量的磁盘(磁盘 1),一切顺利。

然后,我用一个容量更大的磁盘(磁盘 2)替换了另一个正常工作的磁盘。在 RAID 恢复(同步)过程中,大约 90% 时出现了一些错误,我在 Web 界面中发现我的两个新磁盘(磁盘 1 和磁盘 2)都处于危急状态。我在网上看到我可以替换最后安装的磁盘并继续 RAID 恢复(同步),所以我用一个新的干净磁盘(磁盘 3)替换了磁盘 2。这可能是我的错误。Synology NAS Web 界面没有像以前一样提供恢复我的存储池的功能。新磁盘(磁盘 3)显示为健康,仅此而已。

在论坛上阅读了大量资料后,我决定使用 CLI 尝试 RAID 恢复,结果如下:

磁盘 3 - sata4 磁盘 1 - sata3

我不确定这是否是正确的方法。使用 fdisk,我基于 sata3 在 sata4 上创建了分区。

使用以下命令:

sudo mdadm /dev/md0 --add /dev/sata4p1
sudo mdadm /dev/md1 --add /dev/sata4p2
sudo mdadm /dev/md2 --add /dev/sata4p3

我把相应的分区添加到raid10。

现在:

$ cat /proc/mdstat
Personalities : [raid1] [raid10]
md2 : active raid10 sata4p3[5](S) sata3p3[4](E) sata2p3[3] sata1p3[2]
      7792588416 blocks super 1.2 64K chunks 2 near-copies [4/3] [E_UU]

md3 : active raid1 nvme1n1p1[0] nvme0n1p1[1]
      244193984 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sata4p2[0] sata3p2[1] sata2p2[3] sata1p2[2]
      2097088 blocks [4/4] [UUUU]

md0 : active raid1 sata4p1[1] sata3p1[0] sata2p1[3] sata1p1[2]
      8388544 blocks [4/4] [UUUU]

unused devices: <none>

$  sudo mdadm -D /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Tue Dec 13 14:54:17 2022
     Raid Level : raid1
     Array Size : 8388544 (8.00 GiB 8.59 GB)
  Used Dev Size : 8388544 (8.00 GiB 8.59 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sat Jul  6 23:37:15 2024
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

           UUID : 66c55d68:831b4099:05d949f7:b0bbaec7
         Events : 0.58225

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sata3p1
       1       8       49        1      active sync   /dev/sata4p1
       2       8        1        2      active sync   /dev/sata1p1
       3       8       17        3      active sync   /dev/sata2p1

$  sudo mdadm -D /dev/md1
/dev/md1:
        Version : 0.90
  Creation Time : Tue Dec 13 14:54:20 2022
     Raid Level : raid1
     Array Size : 2097088 (2047.94 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2047.94 MiB 2147.42 MB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Sat Jul  6 21:05:57 2024
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

           UUID : f52a567f:3734ea2b:05d949f7:b0bbaec7
         Events : 0.137

    Number   Major   Minor   RaidDevice State
       0       8       50        0      active sync   /dev/sata4p2
       1       8       34        1      active sync   /dev/sata3p2
       2       8        2        2      active sync   /dev/sata1p2
       3       8       18        3      active sync   /dev/sata2p2
$  sudo mdadm -D /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Tue Dec 13 15:16:49 2022
     Raid Level : raid10
     Array Size : 7792588416 (7431.59 GiB 7979.61 GB)
  Used Dev Size : 3896294208 (3715.80 GiB 3989.81 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Sat Jul  6 23:26:24 2024
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : near=2
     Chunk Size : 64K

           Name : nas:2  (local to host nas)
           UUID : 2894354f:67be6652:bbba583f:6cbe1629
         Events : 65803

    Number   Major   Minor   RaidDevice State
       4       8       35        0      faulty active sync set-A   /dev/sata3p3
       -       0        0        1      removed
       2       8        3        2      active sync set-A   /dev/sata1p3
       3       8       19        3      active sync set-B   /dev/sata2p3

       5       8       51        -      spare   /dev/sata4p3

sata4 上的分区被全部添加为备用分区。md0 和 md1 自动恢复。md2 没有自动恢复,可能是因为 /dev/sata3p3 的状态故障。

我选择的路正确吗?我下一步该怎么做?

raid
  • 1 个回答
  • 77 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve