AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / unix / 问题

问题[mdadm](unix)

Martin Hope
Grackleflint
Asked: 2024-09-30 16:41:51 +0800 CST

mdadm - 由于“没有有效的 v1.2 超级块,无法导入”错误,无法添加回替换的驱动器

  • 7

我有一个现有的 raid 6 阵列,其中一个驱动器出现故障,但是,当我尝试使用mdadm --manage /dev/md1 --add /dev/sde3mdadm 错误替换它时,我在内核日志中收到以下消息:

md: sde3 does not have a valid v1.2 superblock, not importing!

请注意,我已将替换驱动器归零,并使用将超级块反复归零mdadm --zero-superblock -e 1.2 --force /dev/sde3。添加似乎将新的超级块写入驱动器,将驱动器标记为备用,但实际上并未将其添加到阵列中,这可能是相关的。

我认为我犯的错误是,mdadm --manage md1 --remove /dev/sde3在驱动器发生故障之后,在尝试添加替换驱动器之前,我移除了发生故障的驱动器。

我尝试了将替换驱动器的超级块归零并组装带有或不带有替换驱动器的阵列的各种组合,但它们都因相同的错误而失败。

此时,我认为我唯一的选择是使用重新创建数组--assume-clean并将失败的插槽标记为missing。

以下是该阵列的信息:

/dev/md1:
           Version : 1.2
     Creation Time : Sun May 12 20:28:14 2013
        Raid Level : raid6
        Array Size : 22686329856 (21.13 TiB 23.23 TB)
     Used Dev Size : 3781054976 (3.52 TiB 3.87 TB)
      Raid Devices : 8
     Total Devices : 7
       Persistence : Superblock is persistent

       Update Time : Mon Sep 30 17:28:13 2024
             State : clean, degraded 
    Active Devices : 7
   Working Devices : 7
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : playroom:raid  (local to host playroom)
              UUID : 34484e2b:99dc0604:10b071d5:c8012127
            Events : 176577

    Number   Major   Minor   RaidDevice State
      13       8       99        0      active sync   /dev/sdg3
      10       8      115        1      active sync   /dev/sdh3
      11       8       19        2      active sync   /dev/sdb3
       -       0        0        3      removed
       9       8       83        4      active sync   /dev/sdf3
       8       8       51        5      active sync   /dev/sdd3
      15       8       35        6      active sync   /dev/sdc3
      14       8        3        7      active sync   /dev/sda3

/dev/sda3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x8
     Array UUID : 34484e2b:99dc0604:10b071d5:c8012127
           Name : playroom:raid  (local to host playroom)
  Creation Time : Sun May 12 20:28:14 2013
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 7562110607 sectors (3.52 TiB 3.87 TB)
     Array Size : 22686329856 KiB (21.13 TiB 23.23 TB)
  Used Dev Size : 7562109952 sectors (3.52 TiB 3.87 TB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=655 sectors
          State : clean
    Device UUID : b3b21814:7f42ad3f:cb7e8d5b:5dfd0d22

    Update Time : Mon Sep 30 17:28:13 2024
  Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
       Checksum : ef2d77c6 - correct
         Events : 176577

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 7
   Array State : AAA.AAAA ('A' == active, '.' == missing, 'R' == replacing)

/dev/sdb3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x8
     Array UUID : 34484e2b:99dc0604:10b071d5:c8012127
           Name : playroom:raid  (local to host playroom)
  Creation Time : Sun May 12 20:28:14 2013
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 7562110607 sectors (3.52 TiB 3.87 TB)
     Array Size : 22686329856 KiB (21.13 TiB 23.23 TB)
  Used Dev Size : 7562109952 sectors (3.52 TiB 3.87 TB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=655 sectors
          State : clean
    Device UUID : 77d07ff9:e5a670c0:cfb45916:717b98e8

    Update Time : Mon Sep 30 17:28:13 2024
  Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
       Checksum : d6aeae07 - correct
         Events : 176577

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAA.AAAA ('A' == active, '.' == missing, 'R' == replacing)

/dev/sdc3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x8
     Array UUID : 34484e2b:99dc0604:10b071d5:c8012127
           Name : playroom:raid  (local to host playroom)
  Creation Time : Sun May 12 20:28:14 2013
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 7562110607 sectors (3.52 TiB 3.87 TB)
     Array Size : 22686329856 KiB (21.13 TiB 23.23 TB)
  Used Dev Size : 7562109952 sectors (3.52 TiB 3.87 TB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=655 sectors
          State : clean
    Device UUID : 67b4abd6:f1e5b87f:0851dd21:9200e1b6

    Update Time : Mon Sep 30 17:28:13 2024
  Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
       Checksum : 4ceee719 - correct
         Events : 176577

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 6
   Array State : AAA.AAAA ('A' == active, '.' == missing, 'R' == replacing)

/dev/sdd3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x8
     Array UUID : 34484e2b:99dc0604:10b071d5:c8012127
           Name : playroom:raid  (local to host playroom)
  Creation Time : Sun May 12 20:28:14 2013
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 7562110607 sectors (3.52 TiB 3.87 TB)
     Array Size : 22686329856 KiB (21.13 TiB 23.23 TB)
  Used Dev Size : 7562109952 sectors (3.52 TiB 3.87 TB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=655 sectors
          State : clean
    Device UUID : fe728bca:23485bc8:a5e5ac21:73c1a89a

    Update Time : Mon Sep 30 17:28:13 2024
  Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
       Checksum : 6d085d59 - correct
         Events : 176577

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 5
   Array State : AAA.AAAA ('A' == active, '.' == missing, 'R' == replacing)

/dev/sde3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x8
     Array UUID : 34484e2b:99dc0604:10b071d5:c8012127
           Name : playroom:raid  (local to host playroom)
  Creation Time : Sun May 12 20:28:14 2013
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 7562110607 sectors (3.52 TiB 3.87 TB)
     Array Size : 22686329856 KiB (21.13 TiB 23.23 TB)
  Used Dev Size : 7562109952 sectors (3.52 TiB 3.87 TB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=261864 sectors, after=655 sectors
          State : clean
    Device UUID : 16c61ab0:553c3ce5:d9b300b8:54b4fe14

    Update Time : Mon Sep 30 17:28:13 2024
  Bad Block Log : 512 entries available at offset 264 sectors - bad blocks present.
       Checksum : 801fb4f3 - correct
         Events : 0

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : spare
   Array State : AAA.AAAA ('A' == active, '.' == missing, 'R' == replacing)

/dev/sdf3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x8
     Array UUID : 34484e2b:99dc0604:10b071d5:c8012127
           Name : playroom:raid  (local to host playroom)
  Creation Time : Sun May 12 20:28:14 2013
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 7562110607 sectors (3.52 TiB 3.87 TB)
     Array Size : 22686329856 KiB (21.13 TiB 23.23 TB)
  Used Dev Size : 7562109952 sectors (3.52 TiB 3.87 TB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=261864 sectors, after=655 sectors
          State : clean
    Device UUID : a8368569:56a9356f:e158fc12:9a75fcf4

    Update Time : Mon Sep 30 17:28:13 2024
  Bad Block Log : 512 entries available at offset 264 sectors - bad blocks present.
       Checksum : fe7faa91 - correct
         Events : 176577

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 4
   Array State : AAA.AAAA ('A' == active, '.' == missing, 'R' == replacing)

/dev/sdg3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x8
     Array UUID : 34484e2b:99dc0604:10b071d5:c8012127
           Name : playroom:raid  (local to host playroom)
  Creation Time : Sun May 12 20:28:14 2013
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 7562110607 sectors (3.52 TiB 3.87 TB)
     Array Size : 22686329856 KiB (21.13 TiB 23.23 TB)
  Used Dev Size : 7562109952 sectors (3.52 TiB 3.87 TB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=655 sectors
          State : clean
    Device UUID : 4b25f2f9:65988664:86916d97:f0e3ac2a

    Update Time : Mon Sep 30 17:28:13 2024
  Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
       Checksum : 3e5f2e4b - correct
         Events : 176577

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA.AAAA ('A' == active, '.' == missing, 'R' == replacing)

/dev/sdh3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x8
     Array UUID : 34484e2b:99dc0604:10b071d5:c8012127
           Name : playroom:raid  (local to host playroom)
  Creation Time : Sun May 12 20:28:14 2013
     Raid Level : raid6
   Raid Devices : 8

 Avail Dev Size : 7562110607 sectors (3.52 TiB 3.87 TB)
     Array Size : 22686329856 KiB (21.13 TiB 23.23 TB)
  Used Dev Size : 7562109952 sectors (3.52 TiB 3.87 TB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=261864 sectors, after=655 sectors
          State : clean
    Device UUID : 948d0c31:03c19927:22f18cdd:0d84ffb2

    Update Time : Mon Sep 30 17:28:13 2024
  Bad Block Log : 512 entries available at offset 264 sectors - bad blocks present.
       Checksum : 6fec028 - correct
         Events : 176577

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAA.AAAA ('A' == active, '.' == missing, 'R' == replacing)

cat /proc/mdstat生成:

md1 : active raid6 sdg3[13] sda3[14] sdc3[15] sdd3[8] sdf3[9] sdb3[11] sdh3[10]
      22686329856 blocks super 1.2 level 6, 512k chunk, algorithm 2 [8/7] [UUU_UUUU]

unused devices: <none>

感谢 frostschutz 发现坏块不一致问题。mdadm --examine-badblocks转储如下:

Bad-blocks on /dev/sda3:
             3834808 for 512 sectors
             3835320 for 368 sectors
          1787061064 for 16 sectors
          1788696152 for 8 sectors
Bad-blocks on /dev/sdb3:
             3834808 for 512 sectors
             3835320 for 368 sectors
          1787061064 for 16 sectors
          1788696152 for 8 sectors
Bad-blocks on /dev/sdc3:
          1787061064 for 16 sectors
          1788696152 for 8 sectors
Bad-blocks on /dev/sdd3:
             3834808 for 512 sectors
             3835320 for 368 sectors
          1787061064 for 16 sectors
          1788696152 for 8 sectors
Bad-blocks on /dev/sde3:
                   0 for 0 sectors
                   --- repeats for 512 lines ---
Bad-blocks on /dev/sdf3:
          1787061064 for 16 sectors
          1788696152 for 8 sectors
Bad-blocks on /dev/sdg3:
          1787061064 for 16 sectors
          1788696152 for 8 sectors
Bad-blocks on /dev/sdh3:
          1787061064 for 16 sectors
          1788696152 for 8 sectors
mdadm
  • 1 个回答
  • 41 Views
Martin Hope
roaima
Asked: 2023-09-13 17:50:13 +0800 CST

使用 mdadm 创建 RAID1 镜像会警告“创建失败”,但成功完成

  • 8

当我创建mdadmRAID 1 阵列时,命令成功完成,但我收到警告。

系统特征(Pi 3 上的 Debian/Raspbian“靶心”):

uname -a
Linux pi 4.9.35-v7+ #1014 SMP Fri Jun 30 14:47:43 BST 2017 armv7l GNU/Linux

mdadm --version
mdadm - v4.1 - 2018-10-01

head -n4 /etc/os-release
PRETTY_NAME="Raspbian GNU/Linux 11 (bullseye)"
NAME="Raspbian GNU/Linux"
VERSION_ID="11"
VERSION="11 (bullseye)"

工作示例:

dd if=/dev/zero bs=1M count=128 >/tmp/r1.img               # 128MB will do nicely
cp /tmp/r1.img /tmp/r2.img                                 # Another slice
for r in 1 2; do losetup /dev/loop$r /tmp/r$r.img; done    # Associate block devices

mdadm --create /dev/md0 --level=raid1 --raid-devices=2 --metadata=default /dev/loop1 /dev/loop2

警告信息:

mdadm: Fail create md0 when using /sys/module/md_mod/parameters/new_array
mdadm: array /dev/md0 started.

退出状态 ( $?) 为零,即成功完成。

cat /proc/mdstat几分钟后,状态检查 ( ),允许新的 RAID 阵列同步:

Personalities : [raid1]
md0 : active raid1 loop2[1] loop1[0]
      130048 blocks super 1.2 [2/2] [UU]

unused devices: <none>

引用的“文件”确实存在:

ls -l /sys/module/md_mod/parameters/new_array
--w------- 1 root root 4096 Sep 13 10:34 /sys/module/md_mod/parameters/new_array

以下是运行中的相关部分strace mdadm …:

openat(AT_FDCWD, "/run/mdadm/creating-md0", O_RDWR|O_CREAT|O_LARGEFILE, 0600) = 4
close(4)                                = 0
openat(AT_FDCWD, "/sys/module/md_mod/parameters/new_array", O_WRONLY|O_LARGEFILE) = 4
write(4, "md0", 3)                      = -1 EINVAL (Invalid argument)
close(4)                                = 0
write(2, "mdadm: Fail create md0 when usin"..., 74mdadm: Fail create md0 when using /sys/module/md_mod/parameters/new_array
) = 74
unlink("/run/mdadm/creating-md0")       = 0

鉴于元设备已成功创建,该术语Fail create在此上下文中意味着什么?

mdadm
  • 1 个回答
  • 61 Views
Martin Hope
NickH
Asked: 2023-01-21 03:33:51 +0800 CST

如何在降级的 mdadm RAID5 中激活备用设备

  • 6

首先要了解一点历史。我有一个 4 磁盘 RAID5,其中一个磁盘发生故障。我将它从阵列中移除并使其处于降级状态一段时间:

mdadm --manage /dev/md127 --fail /dev/sde1 --remove /dev/sde1

我的数据需求突然下降,所以我决定将阵列永久减少到 3 个磁盘。然后我将文件系统缩小到比新数组大小小得多:

mdadm --grow /dev/md127 --array-size 35156183040 # reduces array size
mdadm --grow --raid-devices=3 /dev/md127 --backup-file /store/4TB_WD/md127.backup # reshape array removing 1 disk.

现在已经完成:

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md127 : active raid5 sdd1[1] sdc1[3](S) sdb1[2]
      35156183040 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [_UU]
      bitmap: 103/131 pages [412KB], 65536KB chunk

unused devices: <none>

但给我留下了一个 3 磁盘降级的 RAID5,其中有 2 个活动磁盘和一个备用磁盘:

mdadm -D /dev/md127
/dev/md127:
           Version : 1.2
     Creation Time : Fri Sep  9 22:39:53 2022
        Raid Level : raid5
        Array Size : 35156183040 (32.74 TiB 36.00 TB)
     Used Dev Size : 17578091520 (16.37 TiB 18.00 TB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Fri Jan 20 11:12:10 2023
             State : active, degraded
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : bitmap

              Name : oldserver-h.oldserver.lan:127
              UUID : 589dd683:d9945b24:768d9b2b:28441f90
            Events : 555962

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       49        1      active sync   /dev/sdd1
       2       8       17        2      active sync   /dev/sdb1

       3       8       33        -      spare   /dev/sdc1

如何使这个备用磁盘处于活动状态,以便阵列可以重建到健康状态?cat /sys/block/md127/md/sync_action显示idle并回显repair它什么都不做。

作为后续行动,我首先哪里出错了?

[编辑]lsblk根据要求添加输出:

lsblk
NAME             MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                8:0    0   100G  0 disk
├─sda1             8:1    0     1G  0 part  /boot
└─sda2             8:2    0    99G  0 part
  ├─clearos-root 253:0    0  91.1G  0 lvm   /
  └─clearos-swap 253:1    0   7.9G  0 lvm   [SWAP]
sdb                8:16   0  16.4T  0 disk
└─sdb1             8:17   0  16.4T  0 part
  └─md127          9:127  0  32.8T  0 raid5 /store/RAID_A
sdc                8:32   0  16.4T  0 disk
└─sdc1             8:33   0  16.4T  0 part
  └─md127          9:127  0  32.8T  0 raid5 /store/RAID_A
sdd                8:48   0  16.4T  0 disk
└─sdd1             8:49   0  16.4T  0 part
  └─md127          9:127  0  32.8T  0 raid5 /store/RAID_A
sde                8:64   0   3.7T  0 disk
└─sde1             8:65   0   3.7T  0 part  /store/4TB_WD
sdf                8:80   0 931.5G  0 disk
└─sdf1             8:81   0 931.5G  0 part  /store/1TB1
sdg                8:96   0 931.5G  0 disk
└─sdg1             8:97   0 931.5G  0 part  /store/1TB2
sr0               11:0    1   1.2G  0 rom

[/编辑]

mdadm
  • 1 个回答
  • 22 Views
Martin Hope
Gacek
Asked: 2022-05-26 21:52:51 +0800 CST

如何正确配置 mdadm.conf

  • 0

我有 2 个mdadm数组。很久以前,当只有一次袭击时,我写道mdadm.conf,它看起来像这样:

# mdadm.conf written out by anaconda
MAILADDR root
AUTO +imsm +1.x -all
ARRAY /dev/md/pv00 level=raid1 num-devices=2 UUID=55dc183e:d7199ced:929f5f4a:123c24a3

由于没有第二次突袭,我认为将其添加到它会是一个好主意。所以我跑了命令mdadm --detail --scan >> /etc/mdadm.conf

但是现在,第一次突袭有 2 个条目

# mdadm.conf written out by anaconda
MAILADDR root
AUTO +imsm +1.x -all
ARRAY /dev/md/pv00 level=raid1 num-devices=2 UUID=55dc183e:d7199ced:929f5f4a:123c24a3
ARRAY /dev/md/pv00 metadata=1.2 name=server.local:pv00 UUID=55dc183e:d7199ced:929f5f4a:123c24a3
ARRAY /dev/md/25 metadata=1.2 spares=2 name=server.local:25 UUID=a883dfb5:1a8f32ce:fd20e5d8:156a01ff
  • 第一:我应该删除旧条目并只留下新条目吗?哪一个更好?
  • 第二:为什么新旧条目有区别?旧的有,level=raid1 num-devices=2而新的只有metadata=1.2代替。
    编辑:部分找到的答案
  • 3rd:找到信息,没有它,raid就不会开始。但是,挂载此数组的 fstab 中的条目似乎会自动启动它。所以需要还是不需要?

还发现有些人写信mdadm.conf更新mdadm --verbose --detail --scan > /etc/mdadm.conf 源。合适吗?它还输出驱动器位置,例如:

ARRAY /dev/md/pv00 level=raid1 num-devices=2 metadata=1.2 name=server.local:pv00 UUID=55dc183e:d7199ced:929f5f4a:123c24a3
   devices=/dev/sdi2,/dev/sdj1
ARRAY /dev/md/25 level=raid6 num-devices=6 metadata=1.2 spares=2 name=server.local:25 UUID=a883dfb5:1a8f32ce:fd20e5d8:156a01ff
   devices=/dev/sda1,/dev/sdb1,/dev/sdc1,/dev/sdd1,/dev/sdf1,/dev/sdg1

它是正确的语法吗?我所知道的。驱动器/dev/sd*可能会改变。那么添加devices它是否安全?我最近不得不更换系统上的 SATA 电缆,并且字母发生了变化,因为我没有注意将它们连接到同一个端口。

centos mdadm
  • 1 个回答
  • 311 Views
Martin Hope
tater
Asked: 2022-04-28 22:44:39 +0800 CST

使用 mdadm 修复两个 RAID1 磁盘上丢失的超级块

  • 2

我的 RAID1 阵列工作正常,/dev/md128但在重新启动后似乎完全消失了,mdadm报告两个磁盘都缺少超级块。我的问题是如何解决这个问题?

背景:运行 CentOS 7 的系统。有 2xSSD ( sda, sdb) 和 2xHDD ( sdc, sdd)。应该有一个 RAID1 阵列,/dev/md128但没有显示。在重新启动以进行内核更新之前,它一直运行良好。sdcsdd

未列出的数组/etc/mdadm.conf:

# cat /etc/mdadm.conf
# mdadm.conf written out by anaconda
MAILADDR root
AUTO +imsm +1.x -all
ARRAY /dev/md/boot level=raid1 num-devices=2 UUID=a2f6b6fe:31c80062:67e7a858:a21502a9
ARRAY /dev/md/boot_efi level=raid1 num-devices=2 UUID=ffbc39c9:ff982933:b77aece5:b44bec5f
ARRAY /dev/md/root level=raid1 num-devices=2 UUID=b31f6af6:78305117:7ca807e7:7691d745
ARRAY /dev/md/swap level=raid0 num-devices=2 UUID=f31db9e8:e136e642:1ae8f2d0:7178c956

尝试手动组装阵列:

# mdadm --verbose --assemble /dev/md128 /dev/sdc1 /dev/sdd1
mdadm: looking for devices for /dev/md128
mdadm: no recogniseable superblock on /dev/sdc1
mdadm: /dev/sdc1 has no superblock - assembly aborted
# mdadm -E /dev/sdc1
mdadm: No md superblock detected on /dev/sdc1.
# mdadm -E /dev/sdd1
mdadm: No md superblock detected on /dev/sdd1.

检查的其他事项:smartctl没有显示错误(两个驱动器都使用了大约 3 个月大并且很少使用),mdadm -E /dev/sdc没有在设备级别显示任何超级块。恢复到旧内核,没有任何变化。我很高兴添加其他输出,只是尽量不要让问题变得不必要地冗长。

任何想法表示赞赏!与此同时,我计划将dd两个驱动器都放在手头上。

raid mdadm
  • 1 个回答
  • 328 Views
Martin Hope
daca11
Asked: 2022-03-28 03:03:00 +0800 CST

mdadm RAID 1 后无法识别磁盘

  • 0

我用工具构建了一个 RAID1(镜像),两个相同的 2TB 磁盘通过 SATA 连接mdadm(引导磁盘是 m.2 NMVe 磁盘,RAID 用于存储数据)。操作系统是 BunsenLabs Lithium(基于 Debian 10)。

发出的命令如下:

sudo apt-get install --no-install-recommends mdadm  #to avoid installing (unneeded?) mysql packages
sudo mdadm --create /dev/md0 /dev/sda1 /dev/sdb1 --level=1 --raid-devices=2
sudo mkfs.ext4 -F /dev/md0
sudo mkdir -p /mnt/md0
sudo chmod 777 /mnt/md0  #so non-sudo users can write to the disk
sudo mount /dev/md0 /mnt/md0

我试图创建和复制一些文件来测试数组。然后我决定重新启动系统,看看 raid 磁盘是否会自动组装和挂载(或至少出现在桌面上),但令我惊讶的是磁盘消失了。Linux 不识别任何 /dev/sda 或 /dev/sdb,也不识别 /dev/md0。所以我无法重新组装 RAID,或重新格式化磁盘以重新启动它。这些磁盘被 BIOS 识别,但现在对 Linux 是不可见的,我不知道该怎么办......

raid mdadm
  • 1 个回答
  • 70 Views
Martin Hope
hbogert
Asked: 2022-01-26 03:53:39 +0800 CST

当设备具有不同的大小时,RAID0 如何在下面工作?

  • 16

令我惊讶的是,CentOS 7 安装程序允许我创建一个由大约 17 GB 磁盘和 26 GB 磁盘组成的 RAID0 设备。我原以为即使它允许,逻辑大小也会是2 * min(17 GB, 26 GB) ~= 34 GB. 然而,我确实可以在文件系统级别看到 44 GB 的可用大小:

$ cat /sys/block/md127/md/dev*/size
16955392
26195968
$ df -h |grep md
/dev/md127   44G 1.9G 40G 5% /

与磁盘相等的情况相比,md 子系统的性能表现如何?因为不可能在 2 个磁盘上做一个简单的平衡条带。

mdadm software-raid
  • 3 个回答
  • 2187 Views
Martin Hope
mivk
Asked: 2021-12-16 03:51:27 +0800 CST

RAID5 磁盘可以移动到不同的插槽吗?

  • 5

我有一个健康的 RAID5 阵列,有 5 个磁盘:

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid5 sdb1[6] sdd1[0] sdh1[5] sdf1[2] sde1[1]
      31255166976 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
      bitmap: 0/59 pages [0KB], 65536KB chunk

unused devices: <none>

我想在不关闭服务器的情况下将一个磁盘移动到服务器上的不同物理插槽。(插槽支持热插拔)

我可以安全地卸载阵列、移动磁盘并重新安装阵列,而不会进入降级模式吗?

raid mdadm
  • 1 个回答
  • 301 Views
Martin Hope
Christian Eriksson
Asked: 2020-01-13 10:43:35 +0800 CST

mdadm 数组下的 md 分区是什么?

  • 2

我正在使用 设置两个 RAID 1 阵列mdadm,它似乎工作正常,但是当我进行检查时,lsblk我看到以下内容:

sda                      8:0    0   5,5T  0 disk  
└─md127                  9:127  0   5,5T  0 raid1 
  ├─data-crypt-1       253:5    0   5,5T  0 crypt 
  │ └─myVg-data        253:6    0   5,5T  0 lvm   
  ├─md127p1            259:5    0 182,4G  0 md    
  └─md127p2            259:6    0   1,2T  0 md    
sdb                      8:16   0   5,5T  0 disk  
└─md127                  9:127  0   5,5T  0 raid1 
  ├─data-crypt-1       253:5    0   5,5T  0 crypt 
  │ └─myVg-data        253:6    0   5,5T  0 lvm   
  ├─md127p1            259:5    0 182,4G  0 md    
  └─md127p2            259:6    0   1,2T  0 md    
sdc                      8:32   0   5,5T  0 disk  
└─md126                  9:126  0   5,5T  0 raid1 
sdd                      8:48   0   5,5T  0 disk  
└─md126                  9:126  0   5,5T  0 raid1 

这些分区(?)在我md127p1的md127p2阵列中是什么?我应该删除它们吗?如果是,如何删除?

它似乎没有干扰阵列,它似乎正在按预期重新同步。但是我担心,例如,如果有人要挂载说md127p1并向它写一些东西,它会破坏其中的数据data-crypt-1(跨越整个驱动器)。

编辑:

重新启动和重新组装后问题(如果是问题)仍然存在。

sudo wipefs --no-act /dev/md127
# DEVICE OFFSET TYPE        UUID                                 LABEL
# md127  0x0    crypto_LUKS ba3eab9b-db06-4053-9eb8-4e674931148c 

dmesgmd126确实报告和之间的行为略有不同md127。不知道如何检查“背景重建”。

dmesg | grep "md12[67]"
# [    3.072445] md/raid1:md127: not clean -- starting background reconstruction
# [    3.072445] md/raid1:md127: active with 2 out of 2 mirrors
# [    3.107577] md127: detected capacity change from 0 to 6001039835136
# [    3.112944]  md127: AHDI p1 p2 p3
# [    4.072578] md/raid1:md126: active with 2 out of 2 mirrors
# [    4.105528] md126: detected capacity change from 0 to 6001039835136
# [  175.221344]  md127: AHDI p1 p2 p3
# [  252.627169]  md127: AHDI p1 p2 p3
# [  337.950292]  md127: AHDI p1 p2 p3

并udevadm报告如下:

udevadm info /dev/md127p1
# P: /devices/virtual/block/md127/md127p1
# N: md127p1
# L: 100
# S: disk/by-id/md-name-XYZ:data-array-1-part1
# S: disk/by-id/md-uuid-94gd622:d96sf22:9fb73768:dae5367e-part1
# S: md/XYZ:data-array-1p1
# E: DEVLINKS=/dev/md/XYZ:data-array-1p1 /dev/disk/by-id/md-name-XYZ:data-array-1-part1 /dev/disk/by-id/md-uuid-94gd622:d96sf22:9fb73768:dae5367e-part1
# E: DEVNAME=/dev/md127p1
# E: DEVPATH=/devices/virtual/block/md127/md127p1
# E: DEVTYPE=partition
# E: MAJOR=259
# E: MD_DEVICES=2
# E: MD_DEVICE_ev_sda_DEV=/dev/sda
# E: MD_DEVICE_ev_sda_ROLE=0
# E: MD_DEVICE_ev_sdb_DEV=/dev/sdb
# E: MD_DEVICE_ev_sdb_ROLE=1
# E: MD_DEVNAME=XYZ:data-array-1
# E: MD_LEVEL=raid1
# E: MD_METADATA=1.2
# E: MD_NAME=XYZ:data-array-1
# E: MD_UUID=94gd622:d96sf22:9fb73768:dae5367e
# E: MINOR=5
# E: PARTN=1
# E: SUBSYSTEM=block
# E: SYSTEMD_WANTS=mdmonitor.service
# E: TAGS=:systemd:
# E: USEC_INITIALIZED=337999178
udevadm info /dev/md127p2
# P: /devices/virtual/block/md127/md127p2
# N: md127p2
# L: 100
# S: disk/by-id/md-name-XYZ:data-array-1-part2
# S: disk/by-id/md-uuid-94gd622:d96sf22:9fb73768:dae5367e-part2
# S: md/XYZ:data-array-1p2
# E: DEVLINKS=/dev/disk/by-id/md-name-XYZ:data-array-1-part2 /dev/disk/by-id/md-uuid-94gd622:d96sf22:9fb73768:dae5367e-part2 /dev/md/XYZ:data-array-1p2
# E: DEVNAME=/dev/md127p2
# E: DEVPATH=/devices/virtual/block/md127/md127p2
# E: DEVTYPE=partition
# E: MAJOR=259
# E: MD_DEVICES=2
# E: MD_DEVICE_ev_sda_DEV=/dev/sda
# E: MD_DEVICE_ev_sda_ROLE=0
# E: MD_DEVICE_ev_sdb_DEV=/dev/sdb
# E: MD_DEVICE_ev_sdb_ROLE=1
# E: MD_DEVNAME=XYZ:data-array-1
# E: MD_LEVEL=raid1
# E: MD_METADATA=1.2
# E: MD_NAME=XYZ:data-array-1
# E: MD_UUID=94gd622:d96sf22:9fb73768:dae5367e
# E: MINOR=6
# E: PARTN=2
# E: SUBSYSTEM=block
# E: SYSTEMD_WANTS=mdmonitor.service
# E: TAGS=:systemd:
# E: USEC_INITIALIZED=337999612

hexdump显示:

sudo hexdump -C -n 512 /dev/md127
# *
# *
# 000001c0  7c e8 03 4d 62 32 d5 66  37 75 6b e9 12 6d 16 cc  ||..Mb2.f7uk..m..|
# 000001d0  96 9e 6f 3d 32 e0 e7 fe  7f f4 9c a1 59 03 19 47  |..o=2.......Y..G|
# 000001e0  00 00 00 00 00 00 00 00  00 00 00 00 00 00 00 00  |................|
# *

我还注意到我在某些机器上看不到“幽灵”分区,尤其是我的 DietPi 机器上没有显示它们。它们确实显示在我的 Ubuntu 机器上。此外,我注意到两个阵列(md126 和 md127)都是在其中一台 DietPi 机器上创建的。

mdadm software-raid
  • 1 个回答
  • 953 Views
Martin Hope
Sasha MaximAL
Asked: 2019-08-16 05:35:50 +0800 CST

RAID1 恢复过程跳过坏块

  • 0

我有一个带有一个轻微损坏磁盘的 RAID1 阵列/dev/sdb。我将一个新硬盘/dev/sda放入此阵列以进行镜像sdb(然后我将更换sdb为新硬盘)。

# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sda2[2] sdb2[1]
      999872 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda3[2] sdb3[1]
      1952380736 blocks super 1.2 [2/1] [_U]
      [>....................]  recovery =  2.7% (53083136/1952380736) finish=640.0min speed=49453K/sec

unused devices: <none>

但这个“恢复”过程在 30% 左右停止:

# cat /proc/mdstat 
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sda2[2] sdb2[1]
      999872 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sda3[2](S) sdb3[1]
      1952380736 blocks super 1.2 [2/1] [_U]

unused devices: <none>

我想这里的问题是/dev/sdb有大约 100 个坏块(用 发现badblocks -v -b 512 /dev/sdb > sdb-bads.log)。无法读取/写入它们:

# tail -n 2 sdb-bads.log
1039341414
1039341415

# dd if=/dev/sdb of=/dev/null bs=512 skip=1039341414 count=1
dd: error reading '/dev/sdb': Input/output error
0+0 records in
0+0 records out
0 bytes copied, 9.33531 s, 0.0 kB/s

# dd if=/dev/sdb of=/dev/null bs=512 skip=1039341415 count=1
dd: error reading '/dev/sdb': Input/output error
0+0 records in
0+0 records out
0 bytes copied, 3.36192 s, 0.0 kB/s

我的问题是:

  • 是否有可能找出受影响的文件(假设 RAID1)?据我了解,诸如debugfs使用物理文件系统而不是虚拟 RAID 之类的工具。
  • 是否有机会在sda同步期间跳过这些块(假设我可以丢失一些数据)以完成 RAID1 镜像过程?
raid mdadm
  • 1 个回答
  • 108 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    模块 i915 可能缺少固件 /lib/firmware/i915/*

    • 3 个回答
  • Marko Smith

    无法获取 jessie backports 存储库

    • 4 个回答
  • Marko Smith

    如何将 GPG 私钥和公钥导出到文件

    • 4 个回答
  • Marko Smith

    我们如何运行存储在变量中的命令?

    • 5 个回答
  • Marko Smith

    如何配置 systemd-resolved 和 systemd-networkd 以使用本地 DNS 服务器来解析本地域和远程 DNS 服务器来解析远程域?

    • 3 个回答
  • Marko Smith

    dist-upgrade 后 Kali Linux 中的 apt-get update 错误 [重复]

    • 2 个回答
  • Marko Smith

    如何从 systemctl 服务日志中查看最新的 x 行

    • 5 个回答
  • Marko Smith

    Nano - 跳转到文件末尾

    • 8 个回答
  • Marko Smith

    grub 错误:你需要先加载内核

    • 4 个回答
  • Marko Smith

    如何下载软件包而不是使用 apt-get 命令安装它?

    • 7 个回答
  • Martin Hope
    user12345 无法获取 jessie backports 存储库 2019-03-27 04:39:28 +0800 CST
  • Martin Hope
    Carl 为什么大多数 systemd 示例都包含 WantedBy=multi-user.target? 2019-03-15 11:49:25 +0800 CST
  • Martin Hope
    rocky 如何将 GPG 私钥和公钥导出到文件 2018-11-16 05:36:15 +0800 CST
  • Martin Hope
    Evan Carroll systemctl 状态显示:“状态:降级” 2018-06-03 18:48:17 +0800 CST
  • Martin Hope
    Tim 我们如何运行存储在变量中的命令? 2018-05-21 04:46:29 +0800 CST
  • Martin Hope
    Ankur S 为什么 /dev/null 是一个文件?为什么它的功能不作为一个简单的程序来实现? 2018-04-17 07:28:04 +0800 CST
  • Martin Hope
    user3191334 如何从 systemctl 服务日志中查看最新的 x 行 2018-02-07 00:14:16 +0800 CST
  • Martin Hope
    Marko Pacak Nano - 跳转到文件末尾 2018-02-01 01:53:03 +0800 CST
  • Martin Hope
    Kidburla 为什么真假这么大? 2018-01-26 12:14:47 +0800 CST
  • Martin Hope
    Christos Baziotis 在一个巨大的(70GB)、一行、文本文件中替换字符串 2017-12-30 06:58:33 +0800 CST

热门标签

linux bash debian shell-script text-processing ubuntu centos shell awk ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve