AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / server / 问题

问题[software-raid](server)

Martin Hope
Fit Nerd
Asked: 2023-09-29 17:36:34 +0800 CST

2 路镜像软件 RAID 的 SSD 配置选择

  • 5

我希望 SSD 具有数据冗余,因此可能会在简单、完全配置的 2 路镜像配置中使用软件 RAID(例如 Windows 存储空间)。

为了最大限度地降低两个SSD 同时(或几乎同时)发生故障的风险,我考虑使用 2 个不同的 SSD - 来自不同制造商和/或不同类型(例如 SATA 与 NVMe)。

  • 除了性能上可能存在的差异(特别是在 SATA 与 PCIE NVMe 场景中)之外,我还应该注意任何可靠性问题吗?
  • 性能差异(由于不同的 SSD 类型或不同的附件或两者兼而有之)本身是否会成为双向镜像设置的可靠性问题?
  • 将一个驱动器直接连接到主板(例如 M2 扩展),同时通过 USB 3 通过外部外壳连接另一个驱动器会影响可靠性吗?
  • 如果我被迫通过外部 USB 3+ 连接使用其中一个驱动器,那么什么是更安全的选择:通过外壳连接 SATA SSD 还是通过外壳连接 NVMe SSD?

我只是想为软件 RAIDed SSD 的平均用例提出一个合理的设置(即主要是读取,一些写入,高级用户场景,但不是数据库服务器或类似的密集型内容)。

software-raid
  • 1 个回答
  • 46 Views
Martin Hope
LudgerH
Asked: 2023-09-17 21:59:20 +0800 CST

Debian 12(书虫):安装软件 RAID 1 失败并出现 grub 错误

  • 9

一段时间以来,我一直在尝试设置一个以 RAID 1 作为启动源的新服务器系统。该 RAID 由两个 4TB 硬盘组成。因此,我从使用 Debian 12 安装映像准备的 USB 记忆棒启动。一开始一切运行正常。我配置网络并创建前两个用户。 分区部分我选择手动方式

在接下来的表格中,我看到我的两个 4TB 驱动器和 USB 启动设备,硬盘 SCSI9 是紧急备用,我在这里不会使用它。 我选择配置软件RAID

我选择创建MD设备

我选择RAID 1

2 个 RAID 设备

0 备用设备

我选择 2 个可用磁盘

再次回到分区。 这次我选择引导模式

所有文件都在一个分区中

我选择新的 RAID 设备

一两分钟后,新的分区 RAID 就会出现。 看起来很有希望...

我确认更改后,系统开始获取并安装操作系统的其余部分和所有实用程序。这个过程设计得很好并且到目前为止非常简单。唯一的问题是:它没有完成。:-( 当安装 GRUB 时(2 小时后),它死了...... 我找不到超越这一点的方法。我的错误是什么?我该如何解决?

我根据广泛的互联网搜索结果尝试了很多变体,但结果都相同。这是最有希望的一个:跳过部分安装过程并使用 mdadm 手动生成阵列: https://www.server-world.info/en/note ?os=Debian_12&p=raid1

添加

software-raid
  • 2 个回答
  • 540 Views
Martin Hope
guettli
Asked: 2023-09-12 23:30:06 +0800 CST

mdadm --zero-superblock 适用于 mdraid 的所有设备?

  • 6

我发现无法使用一个命令从服务器中删除 mdraid。

我可以通过以下方式阻止它mdadm --stop /dev/md0

但超级块仍然在设备中。

mdadm --zero-superblock DEVICE需要每个设备(例如 /dev/sdb1)

我知道我能做到mdadm --detail /dev/md0,然后我就看到了这些设备。

我可以编写一个脆弱的脚本来从 的输出中获取 /dev/sd... 字符串mdadm --detail /dev/md0,但我想避免这种情况。

是否有一个单行程序可以从 mdraid 的所有设备中删除超级块?

我想避免解析 的输出mdadm --detail,因为这感觉很脆弱。

software-raid
  • 3 个回答
  • 98 Views
Martin Hope
Charles Chou
Asked: 2023-05-15 09:42:52 +0800 CST

意外将最后一个 2 驱动器重新初始化为 RAID0 后恢复 4 驱动器 RAID5 阵列

  • 5

我有一个运行 RAID 5 4 驱动器的 Asustor NAS,在系统更新后它重新启动到 Web 控制台中的初始化页面,我认为这是升级过程的一部分所以我开始初始化进程,几分钟后我觉得不对劲并且拔掉电源,NAS 启动到一个干净的操作系统,所有设置都已经消失,无法挂载 RAID。

在终端中检查 mdadm 和 fdisk 后,我发现最后 2 个驱动器已重新初始化为 RAID 0 阵列(sdc4、sdd4)。

我曾尝试组装原始 RAID 但没有成功

# mdadm --assemble /dev/mdx /dev/sd*4
mdadm: superblock on /dev/sdc4 doesn't match others - assembly aborted

mdadm --examine /dev/sd* 这是原始 RAID的结果应该是 [sda4,sdb4, sdc4 , sdd4 ] UUID: 1ba5dfd1:e861b791:eb307ef1:4ae4e4ad 8T。
意外创建的 raid0 是 [ sdc4 , sdd4 ] UUID: 06b57325:241ba722:6dd303af:baaa5e4e

/dev/sda:
   MBR Magic : aa55
Partition[0] :       522240 sectors at         2048 (type 83)
Partition[3] :         2047 sectors at            1 (type ee)
mdadm: No md superblock detected on /dev/sda1.
/dev/sda2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 1c90030d:10445d9f:d39fc32a:06d4b79a
           Name : AS1004T-7CBC:0  (local to host AS1004T-7CBC)
  Creation Time : Sun Jun 11 10:56:28 2017
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 4190208 (2046.34 MiB 2145.39 MB)
     Array Size : 2095104 (2046.34 MiB 2145.39 MB)
    Data Offset : 4096 sectors
   Super Offset : 8 sectors
   Unused Space : before=4008 sectors, after=0 sectors
          State : active
    Device UUID : cca1545a:14112668:0ebd0ed3:df55018d

    Update Time : Sun Oct 13 01:05:27 2019
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 95866108 - correct
         Events : 228987


   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sda3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8c3ca866:3e6b6804:32f2955e:1b955d76
           Name : AS1004T-7CBC:126  (local to host AS1004T-7CBC)
  Creation Time : Sun May 14 09:50:45 2023
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 4190208 (2046.34 MiB 2145.39 MB)
     Array Size : 2095104 (2046.34 MiB 2145.39 MB)
    Data Offset : 4096 sectors
   Super Offset : 8 sectors
   Unused Space : before=4008 sectors, after=0 sectors
          State : clean
    Device UUID : f3836318:4899a170:a0018b8b:1aa428ab

    Update Time : Sun May 14 14:40:28 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 48f1cfbb - correct
         Events : 92


   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sda4:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 1ba5dfd1:e861b791:eb307ef1:4ae4e4ad
           Name : AS1004T-7CBC:1  (local to host AS1004T-7CBC)
  Creation Time : Sun Jun 11 10:56:51 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 5851357184 (2790.14 GiB 2995.89 GB)
     Array Size : 8777035776 (8370.43 GiB 8987.68 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=0 sectors
          State : clean
    Device UUID : 6a18260d:f0d1b882:5608a7e4:8eeabe1f

    Update Time : Sun May 14 09:31:25 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 6e46beec - correct
         Events : 213501

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 3
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb:
   MBR Magic : aa55
Partition[0] :       522240 sectors at         2048 (type 83)
Partition[3] :         2047 sectors at            1 (type ee)
mdadm: No md superblock detected on /dev/sdb1.
/dev/sdb2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 1c90030d:10445d9f:d39fc32a:06d4b79a
           Name : AS1004T-7CBC:0  (local to host AS1004T-7CBC)
  Creation Time : Sun Jun 11 10:56:28 2017
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 4190208 (2046.34 MiB 2145.39 MB)
     Array Size : 2095104 (2046.34 MiB 2145.39 MB)
    Data Offset : 4096 sectors
   Super Offset : 8 sectors
   Unused Space : before=4008 sectors, after=0 sectors
          State : active
    Device UUID : 648f0d6d:967f432c:3b9e1ceb:d15959c2

    Update Time : Sun Oct 13 01:05:27 2019
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b9c2a23f - correct
         Events : 228987


   Device Role : Active device 1
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8c3ca866:3e6b6804:32f2955e:1b955d76
           Name : AS1004T-7CBC:126  (local to host AS1004T-7CBC)
  Creation Time : Sun May 14 09:50:45 2023
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 4190208 (2046.34 MiB 2145.39 MB)
     Array Size : 2095104 (2046.34 MiB 2145.39 MB)
    Data Offset : 4096 sectors
   Super Offset : 8 sectors
   Unused Space : before=4008 sectors, after=0 sectors
          State : clean
    Device UUID : 8adc82c0:010edc11:5702a9f6:7287da86

    Update Time : Sun May 14 14:40:28 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : d91b8119 - correct
         Events : 92


   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb4:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 1ba5dfd1:e861b791:eb307ef1:4ae4e4ad
           Name : AS1004T-7CBC:1  (local to host AS1004T-7CBC)
  Creation Time : Sun Jun 11 10:56:51 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 5851357184 (2790.14 GiB 2995.89 GB)
     Array Size : 8777035776 (8370.43 GiB 8987.68 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=0 sectors
          State : clean
    Device UUID : 15bd0bdb:b5fdcfaf:94729f61:ed9e7bea

    Update Time : Sun May 14 09:31:25 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b0f8adf8 - correct
         Events : 213501

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc:
   MBR Magic : aa55
Partition[0] :       522240 sectors at         2048 (type 83)
Partition[3] :         2047 sectors at            1 (type ee)
mdadm: No md superblock detected on /dev/sdc1.
/dev/sdc2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 14d010c5:aaed7a5c:30956792:cfd0c452
           Name : AS1004T-7CBC:0  (local to host AS1004T-7CBC)
  Creation Time : Sun May 14 09:50:35 2023
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 4190208 (2046.34 MiB 2145.39 MB)
     Array Size : 2095104 (2046.34 MiB 2145.39 MB)
    Data Offset : 4096 sectors
   Super Offset : 8 sectors
   Unused Space : before=4008 sectors, after=0 sectors
          State : clean
    Device UUID : 373358f6:76ca625d:e9193081:216676cb

    Update Time : Sun May 14 14:37:42 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : ba188081 - correct
         Events : 880


   Device Role : Active device 1
   Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8c3ca866:3e6b6804:32f2955e:1b955d76
           Name : AS1004T-7CBC:126  (local to host AS1004T-7CBC)
  Creation Time : Sun May 14 09:50:45 2023
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 4190208 (2046.34 MiB 2145.39 MB)
     Array Size : 2095104 (2046.34 MiB 2145.39 MB)
    Data Offset : 4096 sectors
   Super Offset : 8 sectors
   Unused Space : before=4008 sectors, after=0 sectors
          State : clean
    Device UUID : 737541e2:f5a3673d:8db35b12:2db86324

    Update Time : Sun May 14 14:40:28 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : dfa191e3 - correct
         Events : 92


   Device Role : Active device 1
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc4:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 06b57325:241ba722:6dd303af:baaa5e4e
           Name : AS1004T-7CBC:1  (local to host AS1004T-7CBC)
  Creation Time : Sun May 14 09:51:00 2023
     Raid Level : raid0
   Raid Devices : 2

 Avail Dev Size : 5851357184 (2790.14 GiB 2995.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=0 sectors
          State : clean
    Device UUID : d73a946c:9aa8e26e:c4388d7a:566dcf90

    Update Time : Sun May 14 09:51:00 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 9bd7221c - correct
         Events : 0

     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd:
   MBR Magic : aa55
Partition[0] :       522240 sectors at         2048 (type 83)
Partition[3] :         2047 sectors at            1 (type ee)
mdadm: No md superblock detected on /dev/sdd1.
/dev/sdd2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 14d010c5:aaed7a5c:30956792:cfd0c452
           Name : AS1004T-7CBC:0  (local to host AS1004T-7CBC)
  Creation Time : Sun May 14 09:50:35 2023
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 4190208 (2046.34 MiB 2145.39 MB)
     Array Size : 2095104 (2046.34 MiB 2145.39 MB)
    Data Offset : 4096 sectors
   Super Offset : 8 sectors
   Unused Space : before=4008 sectors, after=0 sectors
          State : clean
    Device UUID : acfa8c63:b226e810:3640a42a:9f8b72b1

    Update Time : Sun May 14 14:37:42 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 6a42effb - correct
         Events : 880


   Device Role : Active device 0
   Array State : AA.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 8c3ca866:3e6b6804:32f2955e:1b955d76
           Name : AS1004T-7CBC:126  (local to host AS1004T-7CBC)
  Creation Time : Sun May 14 09:50:45 2023
     Raid Level : raid1
   Raid Devices : 4

 Avail Dev Size : 4190208 (2046.34 MiB 2145.39 MB)
     Array Size : 2095104 (2046.34 MiB 2145.39 MB)
    Data Offset : 4096 sectors
   Super Offset : 8 sectors
   Unused Space : before=4008 sectors, after=0 sectors
          State : clean
    Device UUID : 1dd56ce1:770fa0d6:13127388:46c0d14f

    Update Time : Sun May 14 14:40:28 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 198ac3af - correct
         Events : 92


   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd4:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 06b57325:241ba722:6dd303af:baaa5e4e
           Name : AS1004T-7CBC:1  (local to host AS1004T-7CBC)
  Creation Time : Sun May 14 09:51:00 2023
     Raid Level : raid0
   Raid Devices : 2

 Avail Dev Size : 7804860416 (3721.65 GiB 3996.09 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=0 sectors
          State : clean
    Device UUID : 1dece618:58743ad6:9f56922c:fa500120

    Update Time : Sun May 14 09:51:00 2023
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 6528b89e - correct
         Events : 0

     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

我有以下问题:

  • RAID 0 阵列的重新初始化是否覆盖了我的数据?
  • 我应该只对第 3 个驱动器进行零超级阻塞并重新组装前 3 个驱动器吗?
  • 由于前 2 个驱动器看起来不错,我可以从前 2 个驱动器恢复后 2 个驱动器的超级块吗?
  • 我想恢复 RAID 5 数据

我做了一个实验来检查 mdadm --create 是否在创建的数组上销毁(多少)数据,幸运的是不多。

root@osboxes:/home/osboxes# mdadm --create --verbose /dev/md0 --level=5 --raid-devices=4 /dev/sd{b,c,d,e}
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 100352K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
root@osboxes:/home/osboxes# mkfs.ext4 /dev/md0
mke2fs 1.46.2 (28-Feb-2021)
Creating filesystem with 301056 1k blocks and 75480 inodes
Filesystem UUID: 9f536c05-4178-4aa3-8b1a-c96f3c34de4e
Superblock backups stored on blocks: 
    8193, 24577, 40961, 57345, 73729, 204801, 221185

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done 

root@osboxes:/home/osboxes# mount /dev/md0 /mnt/
root@osboxes:/home/osboxes# dd if=/dev/urandom of=/mnt/test count=200000
200000+0 records in
200000+0 records out
102400000 bytes (102 MB, 98 MiB) copied, 0.860987 s, 119 MB/s
root@osboxes:/home/osboxes# md5sum /mnt/test 
5b6024b89c0facb25bfb3055b21c4042  /mnt/test
root@osboxes:/home/osboxes# umount /mnt/
root@osboxes:/home/osboxes# mdadm --stop md0
mdadm: stopped md0
root@osboxes:/home/osboxes# mdadm --create --verbose /dev/md0 --level=0 --raid-devices=2 /dev/sd{d,e} # the command finish instantly I dont think it have time to write 100MB data
mdadm: chunk size defaults to 512K
mdadm: /dev/sdd appears to be part of a raid array:
       level=raid5 devices=4 ctime=Mon May 15 02:53:07 2023
mdadm: /dev/sde appears to be part of a raid array:
       level=raid5 devices=4 ctime=Mon May 15 02:53:07 2023
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
root@osboxes:/home/osboxes# mdadm --assemble --force /dev/md0 /dev/sd{b,c,d,e} 
mdadm: /dev/sdd is busy - skipping
mdadm: /dev/sde is busy - skipping
mdadm: Fail create md0 when using /sys/module/md_mod/parameters/new_array
mdadm: /dev/md0 is already in use.
root@osboxes:/home/osboxes# mdadm --stop md0
mdadm: stopped md0
root@osboxes:/home/osboxes# mdadm --assemble --force /dev/md0 /dev/sd{b,c,d,e} 
mdadm: superblock on /dev/sdd doesn't match others - assembly aborted
root@osboxes:/home/osboxes# mdadm --create /dev/md126 --assume-clean --raid-devices=4 --level=5  /dev/sd{b,c,d,e}
mdadm: /dev/sdb appears to be part of a raid array:
       level=raid5 devices=4 ctime=Mon May 15 02:53:07 2023
mdadm: /dev/sdc appears to be part of a raid array:
       level=raid5 devices=4 ctime=Mon May 15 02:53:07 2023
mdadm: /dev/sdd appears to be part of a raid array:
       level=raid0 devices=2 ctime=Mon May 15 02:55:14 2023
mdadm: /dev/sde appears to be part of a raid array:
       level=raid0 devices=2 ctime=Mon May 15 02:55:14 2023
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md126 started.
root@osboxes:/home/osboxes# mount /dev/md126 /mnt
root@osboxes:/home/osboxes# md5sum /mnt/
lost+found/ test        
root@osboxes:/home/osboxes# md5sum /mnt/test 
5b6024b89c0facb25bfb3055b21c4042  /mnt/test

但如果我创建文件系统并将文件写入新阵列,恢复阵列将损坏,但仍然可读。

root@osboxes:/home/osboxes# umount /mnt/
root@osboxes:/home/osboxes# mdadm --stop md126
mdadm: stopped md126
root@osboxes:/home/osboxes# mdadm --create --verbose /dev/md0 --level=0 --raid-devices=2 /dev/sd{d,e}
mdadm: chunk size defaults to 512K
mdadm: /dev/sdd appears to be part of a raid array:
       level=raid5 devices=4 ctime=Mon May 15 02:57:09 2023
mdadm: /dev/sde appears to be part of a raid array:
       level=raid5 devices=4 ctime=Mon May 15 02:57:09 2023
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
root@osboxes:/home/osboxes# mdadm --assemble --force /dev/md0 /dev/sd{b,c,d,e} ^C
root@osboxes:/home/osboxes# mkfs.ext4 /dev/md0
mke2fs 1.46.2 (28-Feb-2021)
Creating filesystem with 200704 1k blocks and 50200 inodes
Filesystem UUID: c1ded6ea-d212-473a-a282-7c3dd4f6777e
Superblock backups stored on blocks: 
    8193, 24577, 40961, 57345, 73729

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done 

root@osboxes:/home/osboxes# mount /dev/md0 /mnt/
root@osboxes:/home/osboxes# ls /mnt/
lost+found
root@osboxes:/home/osboxes# echo test>/mnt/test
root@osboxes:/home/osboxes# umount /mnt/
root@osboxes:/home/osboxes# mdadm --stop md0
mdadm: stopped md0
root@osboxes:/home/osboxes# mdadm --create /dev/md126 --assume-clean --raid-devices=4 --level=5  /dev/sd{b,c,d,e}
mdadm: /dev/sdb appears to be part of a raid array:
       level=raid5 devices=4 ctime=Mon May 15 02:57:09 2023
mdadm: /dev/sdc appears to be part of a raid array:
       level=raid5 devices=4 ctime=Mon May 15 02:57:09 2023
mdadm: /dev/sdd appears to be part of a raid array:
       level=raid0 devices=2 ctime=Mon May 15 03:01:55 2023
mdadm: /dev/sde appears to be part of a raid array:
       level=raid0 devices=2 ctime=Mon May 15 03:01:55 2023
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md126 started.
root@osboxes:/home/osboxes# mount /dev/md126 /mnt/
root@osboxes:/home/osboxes# ls /mnt/
lost+found  test
root@osboxes:/home/osboxes# md5sum /mnt/test 
4d389d72a1db56e9d73cbe753fabf595  /mnt/test
software-raid
  • 1 个回答
  • 65 Views
Martin Hope
jamminjames
Asked: 2023-03-29 05:24:11 +0800 CST

在 Linux 服务器中从软件 RAID1 阵列克隆单个磁盘的最佳方法

  • 5

如何从 Linux 服务器中的软件 RAID1 阵列克隆单个 HDD 可引导磁盘?目前是双盘HDD镜像阵列。我可以物理访问服务器,它有空的磁盘托架。我想保留 RAID1 阵列的原样,只制作一个 Linux 操作系统(CentOS 7)和所有数据的克隆磁盘。

我计划从 EOL 的 CentOS 7 迁移,并希望使用克隆磁盘来进行迁移。然后我想创建一个 RAID1 阵列,从新磁盘开始替换当前磁盘。

我找到了从阵列中安全移除磁盘的说明,我想我可以这样做,然后克隆它(使用 Clonezilla)。但是,我认为,如果可能的话,让阵列保持运行并从中克隆会更简单。

如果我确实需要从阵列中移除磁盘,将其标记为“失败”ala指令,例如这些,当我移除它时磁盘是否可以启动,以便我可以创建一个可启动的克隆?

谢谢你的帮助。

software-raid
  • 1 个回答
  • 46 Views
Martin Hope
Ceccoclat
Asked: 2022-12-03 03:31:49 +0800 CST

如何从 Ubuntu 和 Windows 访问 RAID1?

  • 5

这个话题已经讨论了很多次,但我没有找到任何适合我的情况的内容。我想用 2 个 sata 驱动器(相同品牌、型号、容量)创建一个 RAID1。我的目标是让这个 raid 可以从 Windows 和 Ubuntu 访问,它们位于另外 2 个独立的驱动器中。所以我没有尝试从 raid 启动,我只是用它来存储数据。我知道最简单的解决方案是购买真正的 raid 控制器卡,但我想知道是否真的有必要花更多的钱。至于软件 raid 选项,据我所知,你不能做这样的事情并使其可以从 linux 和 windows 访问,但如果我错了请纠正我。所以现在我正在考虑使用内置的主板控制器来实现它,但我读过的每一次讨论都得出这样的结论:你不应该

1 - 如果您更换主板,您将不确定您的下一个硬件是否会读取数据。

2 - raid 的主板实现通常使用 CPU 资源。

3 - 主板实施通常没有断电安全功能,这可能会弄乱数据。

我的问题是:

1 - 如果您有 RAID1 配置,陈述 (1) 和 (3) 是否也成立?我这么说是因为它只是一个直接副本,我会假设数据的写入方式不是那么神秘,如果 2 个损坏之一(或者如果我更换主板),我可以轻松阅读它。

2 - 所有主板都做这种“假”突袭吗?就我而言,制造商网站上明确表示它支持 RAID 0、1 和 10。

3 - 有没有更好的方法来实现我想要做的事情?

我的主板:https ://it.msi.com/Motherboard/B450-GAMING-PRO-CARBON-MAX-WIFI/Specification

提前致谢

software-raid
  • 1 个回答
  • 29 Views
Martin Hope
Chris
Asked: 2022-02-04 00:23:23 +0800 CST

在 2 个不同大小的磁盘上具有不均匀比例“条带”分布的 LVM

  • 1

有没有办法在具有 2 个不同大小磁盘的 VG 中创建一个“条带化”LV,从而利用 100% 的可用空间?线性 LV 可以工作,但我希望负载按比例分布在 2 个 SSD 上,一个 500GB,另一个 1TB。

linux lvm raid storage software-raid
  • 1 个回答
  • 158 Views
Martin Hope
Abid
Asked: 2022-01-24 04:30:51 +0800 CST

启动管理器显示两个条目,但还原后只剩下一个分区

  • 0

我必须在 Windows 2019 服务器实例上执行恢复(使用 veeam 恢复代理)。

在恢复之前,系统被配置为具有两个动态磁盘的软件 RAID(镜像)。

恢复后只剩下一个磁盘,现在是基本磁盘(不再是动态磁盘)并且不再有 raid。

但是在引导引导管理器时仍然显示两个条目(见图)。引导管理器

引导工作,但奇怪的是引导管理器显示两个条目而只剩下一个磁盘。

如何修复引导管理器以仅显示一个现有条目(仅剩下一个)?

software-raid
  • 0 个回答
  • 18 Views
Martin Hope
Pemmi
Asked: 2021-12-09 04:10:03 +0800 CST

ProLiant DL320e Gen8 v2 在 SAS 端口上看不到磁盘,SATA 端口 5(用于 dvd 驱动器)工作正常

  • 0

本论坛第一次发帖,感谢阅读。

尝试使用内置软件 RAID 控制器 HP Dynamic Smart Array B120i v3.54 上的 RAID0 阵列启动并运行我的服务器。

该系统确实看到了一些 500gb 的消费者 sata 驱动器。但它无法检测或查看与此特定单元兼容的原始 HP 2TB SAS 驱动器(部件号 652757)。

我尝试了 4 个不同的磁盘,全部为 652757 个。其中 2 个在球童上发出橙色稳定光。球童中的其他 2 个不亮。球童确实尝试初始化。我还尝试了 2 个全新的 Seagate 2TB sas 磁盘,系统也看不到它们。

在 RAID 控制器软件/设置中也没有磁盘的痕迹,因此我无法创建逻辑磁盘/阵列。他们都没有显示。

我也试过薄荷 DL320e Gen8 v2,结果完全相同。本机自 2014 年以来未更新固件。

只有我尝试连接到主板上 PORT5 SATA 的消费级 SSD SATA 才能工作(端口通常用于超薄 DVD 驱动器)。我在启动过程中显示,在 raid-settings 实用程序中,我可以在其上安装操作系统等。

所有固件都更新了,我也试过删除 NAND 闪存。没运气。

有没有人现在该怎么办 - 我错过了什么明显的东西吗?

谢谢 :)

产品 ID:717170-421 系统 ROM:P80 04/04/2019 系统 ROM 日期:04/04/2019 备份系统 ROM:P80 03/28/2014

iLO 固件版本:2.78 2021 年 4 月 28 日

hp-proliant software-raid
  • 1 个回答
  • 256 Views
Martin Hope
Will Roberts
Asked: 2021-10-26 09:54:22 +0800 CST

正确引导缺少驱动器或故障驱动器的基于软件的 RAID1

  • 3

tl;博士。 有没有办法在驱动器丢失或故障(不是用户首先失败)的情况下正确启动基于软件的 RAID1?

需要明确的是,如果在重新启动之前正确地使驱动器发生故障,则可以在没有硬盘驱动器的情况下启动基于软件的 RAID1。我知道这是主观的,但这似乎不是一个合理的解决方案,也不是一个可接受的答案。例如; 设施受到电源冲击,并且硬盘驱动器在断电的同时发生故障。尝试使用未“正确”失败的降级硬盘启动将导致系统进入紧急模式。

我从这里和其他论坛阅读了许多帖子,都建议您在所有分区上安装 grub,或者手动重建 grub,添加nofail到/etc/fstab选项或其他看似简单的解决方案;但现实情况是,这些建议都没有奏效。

虽然我已经接受了这是不可能的,但关于这件事的一些事情并不容易。因此,我正在查看是否有其他人有此问题或对此问题有解决方案。

我的环境:

我有一个不支持 UEFI 的旧主板,所以我启动了传统模式/MBR。
操作系统:

cat /etc/redhat-release
Red Hat Enterprise Linux Workstation release 7.6 (Maipo)

核心:

uname –r
3.10.0-957.el7.x86_64

妈妈:

mdadm –version
mdadm – v4.1-rc1 2018-03-22

我的 RAID 是跨三个驱动器的 RAID1。( sda,sdb,sdc) 并且有 4 个分区

md1 - /boot
md2 - /home
md3 - /
md4 - swap

我已经在所有分区上安装了 grub,并确保所有引导分区都有引导标志。 fdisk /dev/sd[a,b,c]all*在适当分区旁边的引导字段中 显示 a
- 和 -
grub2-install /dev/sd[a,b,c](作为单独的命令,具有“成功安装”结果)。

复制问题:

  1. 在分配给 RAID 的所有驱动器和 RAID 完全可操作的情况下关闭系统。
  2. 卸下硬盘
  3. 电源系统启动

结果: 系统将通过 grub 引导。Gdm 将尝试显示登录屏幕,但大约 20 秒后,它将失败并掉到紧急控制台。“正常”系统中有许多缺失的部分。例如; /boot 和 /etc 不存在。似乎没有任何内核恐慌消息或问题显示在dmesg.

同样,这里的关键是;RAID 必须完全组装,关闭电源并卸下驱动器。如果您正确地使驱动器发生故障并将其从 RAID 中删除,那么您可以在没有驱动器的情况下启动。

示例:(
mdadm --manage /dev/md[1,2,3,4] --fail /dev/sda[1,2,3,4]作为单独的命令)
mdadm --manage /dev/md[1,2,3,4] --remove /dev/sda[1,2,3,4](作为单独的命令)

我知道这似乎微不足道,但我还没有找到一个可行的解决方案来引导具有降级 RAID1 的系统。您会认为这应该是一个简单解决方案的简单问题,但事实并非如此。

任何帮助、输入或建议将不胜感激。

linux redhat boot mdadm software-raid
  • 1 个回答
  • 351 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve