过去两年,我一直使用在本指南的帮助下创建的 raid 5 阵列作为 NAS 。但最近我不得不更换该系统的主板,因为之前的主板停止工作了。我的系统中有 1 个 nvme 和 3 个 hdd。Nvme用作系统驱动器,3个hdd用作raid存储。更换主板后,系统可以正常启动进入操作系统(无需全新安装 Ubuntu)。但问题是 raid 阵列不再起作用。
我不知道如何恢复这个阵列的 Linux 系统。我已经尝试过的事情;
只需从头开始重建阵列即可恢复数据。我全新安装了 OMV 并使用 gui 擦除了 3 个硬盘。然后创建一个新的 raid 5 阵列并开始重新同步。重新同步完成后,可以再次访问文件。
sudo mdadm --assemble /dev/md/NAS:0 /dev/sda /dev/sdb /dev/sdc 输出;
mdadm:无法在 /dev/sda 上组装 mbr 元数据
mdadm:/dev/sda 没有超级块 - 组装中止*
*此输出与 sda、sdb 和 sdc 相同
cat /proc/mdstat
输出;
个性:[线性] [多路径] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
未使用的设备:无
lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
输出;
名称 大小 FSTYPE 类型 安装点
loop0 4K squashfs 循环/snap/bare/5loop1
9.6M squashfs 循环/snap/canonical-livepatch/235loop2
9.6M squashfs 循环/snap/canonical-livepatch/246loop3
105.8M squashfs 循环/snap/core /16202
循环4 105.8M 南瓜文件系统循环 /snap/core/16091
循环5 63.5M 南瓜文件系统循环 /snap/core20/2015
循环6 63.9M 南瓜文件系统循环 /snap/core20/2105
循环7 74.1M 南瓜文件系统循环 /snap/core22/1033
循环8 245.9M 南瓜文件系统循环/snap/firefox/3600
循环9 73.9M squashfs 循环/snap/core22/864
循环10 246M squashfs 循环/snap/firefox/3626
循环11 349.7M squashfs 循环/snap/gnome-3-38-2004/143
循环12 349.7M squashfs 循环/snap/gnome-3-38-2004/140
循环13 496.9M squashfs 循环/snap/gnome-42-2204/132
循环14 497M 南瓜fs 循环/snap/gnome-42-2204/141
循环15 81.3M 南瓜fs 循环/snap/gtk-common-themes/1534
循环16 45.9M 南瓜fs 循环/snap/snap-store/638
循环17 91.7M 南瓜fs 循环/snap/gtk -common-themes/1535
循环18 12.3M 南瓜循环/snap/snap-store/959 循环
19 40.4M 南瓜循环/snap/snapd/20671
循环20 40.9M 南瓜循环/snap/snapd/20290
循环21 452K 南瓜循环/snap/snapd-桌面集成/83
sda 3.6T zfs_member 磁盘
├─sda1 128M 部分
└─sda2 3.6T ext4 部分
sdb 3.6T zfs_member 磁盘
├─sdb1 128M 部分
└─sdb2 3.6T 部分
sdc 3.6T zfs_member 磁盘
├─sdc1 128M 部分
└─sdc2 3.6T 部分
nvme0n1 11 9.2G盘
├─ nvme0n1p1 512M vfat 部分 /boot/efi
└─nvme0n1p2 118.7G ext4 部分 /
cat /etc/mdadm/mdadm.conf
输出;
mdadm.conf
!注意!更新此文件后运行 update-initramfs -u。
!注意!这将确保 initramfs 具有最新的副本。
有关此文件的信息,请参阅 mdadm.conf(5)。
默认情况下(内置),扫描所有分区 (/proc/partitions) 和所有
容器中的 MD 超级块。或者,指定要扫描的设备,
如果需要,可以使用通配符。
DEVICE 分区容器
自动将新阵列标记为属于本地系统
HOMEHOST(系统)
指示监控守护程序向何处发送邮件警报
MAILADDR
现有 MD 阵列的根定义
此配置于 2022 年 3 月 17 日星期四 16:19:20 自动生成+0530 由 mkconf
数组 /dev/md/NAS:0 元数据=1.2 名称=NAS:0 UUID=e1965c11:b3f7c3db:68417477:2663bfbf
sudo mount /dev/md/NAS:0 /mnt/md0
输出;
挂载:/mnt/md0:错误的选项;对于多个文件系统(例如 nfs、cifs),您可能需要 /sbin/mount.(type) 帮助程序。
sudo fsck.ext4 -v /dev/sda2
输出;
e2fsck 1.46.5(2021 年 12 月 30 日)
ext2fs_check_desc:损坏的组描述符:inode 位图的坏块
fsck.ext4:组描述符看起来很糟糕...正在尝试备份块...
fsck.ext4:超级块中的坏幻数使用备份
blocksfsck.ext4时:返回到原始超级块
超级块有一个无效的日志(inode 8)。
清除?是
*** 日志已被删除 ***
文件系统大小(根据超级块)是 1953443072 块
设备的物理大小是 976721408 块
超级块或分区表可能已损坏!
中止?是
/dev/sda2: ***** 文件系统已修改 *****
我已经中止了上述过程。我应该继续吗?
只需从头开始重建阵列即可恢复数据。我全新安装了 OMV 并使用 gui 擦除了 3 个硬盘。然后创建一个新的 raid 5 阵列并开始重新同步。重新同步完成后,阵列将被安装并且文件可以再次访问。