AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / ubuntu / 问题

问题[raid5](ubuntu)

Martin Hope
brad
Asked: 2020-10-23 17:06:28 +0800 CST

我可以将物理驱动器组合成一个卷以用作 RAID 的一部分吗?

  • 0

我有一个家庭媒体服务器,目前在使用 mdadm 的 Raid5 中有 4 个 4TB 驱动器。目前这给了我 12TB 的空间,而且几乎用完了。我想增加更多空间,但想使用更大的驱动器。我计划最终在 Raid5 中拥有 3 个 12TB 驱动器,但不想一次性花那么多钱。

我想知道以下途径是否可行;

  1. 购买并安装单个 12TB 驱动器并创建一个 8TB 分区和一个 4TB 分区。
  2. 将现有数据的 8TB 复制到 8 TB 分区,将剩余的 4TB 复制到新的 4TB 分区。
  3. 使用 LVM 将 4TB 驱动器组合成 2 个 8TB 逻辑卷。
  4. 使用 mdadm 将我的一个物理 8TB 和 2 个逻辑 8TB 卷组合成一个 16TB RAID5 阵列(保留物理 8TB 驱动器上的数据)。
  5. 将另一个分区上的 4TB 数据复制到新的 RAID 卷中,留下 4TB 的空间。
  6. 当我快要填满这个时(可能从现在开始超过一年或更长时间)购买 2 个新的 12TB 驱动器,在每个驱动器上创建 8TB 分区,将 RAID 移动到 3 个 12TB 驱动器,然后将分区增加到 12TB,创建一个 24TB RAID5驾驶

这行得通吗?

任何人都有更聪明的方法来做到这一点,而不仅仅是现在购买 3 个驱动器?

raid mdadm raid5
  • 1 个回答
  • 151 Views
Martin Hope
wobbler
Asked: 2019-12-10 14:24:20 +0800 CST

在 20TB Raid5 上创建 ext4 文件系统仍在运行 - 它是否已停止或这是一个非常长的过程?

  • 1

我最近通过 Webmin 在 18.04.3LTS ubuntu 服务器上设置了一个 20TB (4x5TB) RAID5 阵列(请保留有关 RAID5 的评论,我知道很多人不喜欢它)。

我没有创建文件系统(通过 Webmin),它似乎需要很长时间 - 它已经(我认为)至少 24 小时了。

Webmin 运行的命令是

Executing command partprobe ; mkfs -t ext4 -c -q /dev/md0 ..

自从运行以来,我只得到了相当于风车的东西 - 没有进度条来指示它是否仍在实际工作或已经停止。

在 Webmin 的 'Running Process' 部分中,以下两个位于列表顶部

27638   root    12.7 %  [md0_raid5]
21798   root    10.4 %  badblocks -b 4096 -X /dev/md0 3662728703

我怀疑也许我勾选了一个选项来检查阵列是否有坏块,同时创建文件系统,这可能会大大减慢它的速度?但我不知道我在这里不知道什么。此外,驱动器上的活动 LED 显示持续活动。

我猜这一切都意味着它仍在进行中,但我希望可能有一个运行命令可以给我一个进度指示?或者可能有人已经完成了类似的过程,并且可以告诉我在退出和凝视之前我应该​​等待多长时间?

更新:这个线程表明它是坏块,我可能会等待 400 多个小时......

如果是这样,有没有办法杀死 badblock 进程并让它完成 mkfs.ext4?否则,我应该运行哪些命令以仅创建文件系统来重新启动它?

filesystem badblocks raid5
  • 1 个回答
  • 249 Views
Martin Hope
Paul
Asked: 2019-01-11 00:18:41 +0800 CST

Ubuntu MDADM RAID 驱动器故障?

  • 0

我有一个运行 Ubuntu 的 QNAP 和一个 MD 软件-raid 中的驱动器,但是在重新启动后,服务器进入了紧急模式(我通过从 fstab 中删除了 raid 来恢复)。

(前面的 LED 不表示驱动器有任何错误,但我认为这些是由原始 QNAP 安装控制的软件,但我现在运行的是 Ubuntu 16.04。)

在此之后,我尝试手动安装 md0,但无济于事。

server@server:~$ sudo mount -t ext4 /dev/md0 /home/media
mount: wrong fs type, bad option, bad superblock on /dev/md0,
       missing codepage or helper program, or other error

       In some cases useful info is found in syslog - try
       dmesg | tail or so.
server@server:~$ dmesg | tail
[   42.878727] igb 0000:0c:00.0 enp12s0: igb: enp12s0 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX
[   42.878998] IPv6: ADDRCONF(NETDEV_CHANGE): enp12s0: link becomes ready
[   45.695936] pcieport 0000:03:00.0: System wakeup enabled by ACPI
[   45.698592] pcieport 0000:03:00.0: System wakeup enabled by ACPI
[   50.744434] NFSD: Using /var/lib/nfs/v4recovery as the NFSv4 state recovery directory
[   50.753617] NFSD: starting 90-second grace period (net ffffffff81ef5e80)
[  397.457988] EXT4-fs (md0): unable to read superblock

之后我去检查驱动器,fdisk 没有显示任何相关错误。/dev/sde 是我的启动 SSD,它已使用较小的映像进行映像,因为驱动器实际上是这样,因此会出现一些错误,但它是不相关的。

sudo fdisk -l
Disk /dev/sda: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdb: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdc: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdd: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


GPT PMBR size mismatch (125045423 != 250069679) will be corrected by w(rite).
Disk /dev/sde: 119.2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 812B4B47-96F5-4815-9A7A-39420846C178

Device         Start       End  Sectors  Size Type
/dev/sde1       2048   1050623  1048576  512M EFI System
/dev/sde2    1050624  59643903 58593280   28G Linux filesystem
/dev/sde3  116881408 125044735  8163328  3.9G Linux swap
/dev/sde4   59643904 116881407 57237504 27.3G Linux filesystem

Partition table entries are not in disk order.

所以我去检查 mdadm,它告诉我突袭是“不活动的”。

server@server:~$ sudo mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
     Raid Level : raid0
  Total Devices : 4
    Persistence : Superblock is persistent

          State : inactive

           Name : lavie-server:0  (local to host lavie-server)
           UUID : 6d7fc4d9:6ca640d1:14235985:d87224f7
         Events : 256957

    Number   Major   Minor   RaidDevice

       -       8        0        -        /dev/sda
       -       8       16        -        /dev/sdb
       -       8       32        -        /dev/sdc
       -       8       48        -        /dev/sdd

然后我开始检查每个驱动器(其他三个的阵列状态中似乎缺少一个,但在一个上,所有 4 个都出现了):

sudo mdadm --examine /dev/sda
/dev/sda:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6d7fc4d9:6ca640d1:14235985:d87224f7
           Name : lavie-server:0  (local to host lavie-server)
  Creation Time : Wed May 10 12:13:27 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7813775024 (3725.90 GiB 4000.65 GB)
     Array Size : 11720661504 (11177.69 GiB 12001.96 GB)
  Used Dev Size : 7813774336 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=688 sectors
          State : active
    Device UUID : d17b6e14:6cfa14ec:d39da457:eb30892e

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Dec 28 14:35:42 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : f137feca - correct
         Events : 256957

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AA.A ('A' == active, '.' == missing, 'R' == replacing)

(下一个)

sudo mdadm --examine /dev/sdb
/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6d7fc4d9:6ca640d1:14235985:d87224f7
           Name : lavie-server:0  (local to host lavie-server)
  Creation Time : Wed May 10 12:13:27 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7813775024 (3725.90 GiB 4000.65 GB)
     Array Size : 11720661504 (11177.69 GiB 12001.96 GB)
  Used Dev Size : 7813774336 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=688 sectors
          State : active
    Device UUID : 7111c8f9:b25a4240:7c06be59:ef2a90b5

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Dec 28 14:35:42 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b3df575f - correct
         Events : 256957

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AA.A ('A' == active, '.' == missing, 'R' == replacing)

下一个

sudo mdadm --examine /dev/sdc
/dev/sdc:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6d7fc4d9:6ca640d1:14235985:d87224f7
           Name : lavie-server:0  (local to host lavie-server)
  Creation Time : Wed May 10 12:13:27 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7813775024 (3725.90 GiB 4000.65 GB)
     Array Size : 11720661504 (11177.69 GiB 12001.96 GB)
  Used Dev Size : 7813774336 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=688 sectors
          State : clean
    Device UUID : 44b103a3:825be8ea:3d05c937:5f9dfa12

Internal Bitmap : 8 sectors from superblock
    Update Time : Mon Dec 24 13:49:34 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 432ce5b5 - correct
         Events : 47370

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

(下一个)

sudo mdadm --examine /dev/sdd
/dev/sdd:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6d7fc4d9:6ca640d1:14235985:d87224f7
           Name : lavie-server:0  (local to host lavie-server)
  Creation Time : Wed May 10 12:13:27 2017
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 7813775024 (3725.90 GiB 4000.65 GB)
     Array Size : 11720661504 (11177.69 GiB 12001.96 GB)
  Used Dev Size : 7813774336 (3725.90 GiB 4000.65 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=688 sectors
          State : active
    Device UUID : 64a2131e:910e477d:1e3f89c3:fe1fc2e7

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Dec 28 14:35:42 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b12cc9e4 - correct
         Events : 256957

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AA.A ('A' == active, '.' == missing, 'R' == replacing)

所以我怀疑 /dev/sdc 有问题,因为它显示“干净”而不是“活跃”。

LSHW的状态:

sudo lshw -class disk -class storage
  *-usb:1                 
       description: Mass storage device
       product: AS2115
       vendor: ASMedia
       physical id: 4
       bus info: usb@1:4
       logical name: scsi8
       version: 0.01
       serial: 00000000000000000000
       capabilities: usb-2.10 scsi emulated scsi-host
       configuration: driver=usb-storage speed=480Mbit/s
     *-disk
          description: SCSI Disk
          product: 2115
          vendor: ASMT
          physical id: 0.0.0
          bus info: scsi@8:0.0.0
          logical name: /dev/sde
          version: 0
          serial: 00000000000000000000
          size: 119GiB (128GB)
          capabilities: gpt-1.00 partitioned partitioned:gpt
          configuration: ansiversion=6 guid=812b4b47-96f5-4815-9a7a-39420846c178 logicalsectorsize=512 sectorsize=512
  *-storage
       description: SATA controller
       product: Marvell Technology Group Ltd.
       vendor: Marvell Technology Group Ltd.
       physical id: 0
       bus info: pci@0000:01:00.0
       version: 11
       width: 32 bits
       clock: 33MHz
       capabilities: storage pm msi pciexpress ahci_1.0 bus_master cap_list rom
       configuration: driver=ahci latency=0
       resources: irq:272 ioport:d050(size=8) ioport:d040(size=4) ioport:d030(size=8) ioport:d020(size=4) ioport:d000(size=32) memory:90b10000-90b107ff memory:90b00000-90b0ffff
  *-storage
       description: SATA controller
       product: Marvell Technology Group Ltd.
       vendor: Marvell Technology Group Ltd.
       physical id: 0
       bus info: pci@0000:02:00.0
       version: 11
       width: 32 bits
       clock: 33MHz
       capabilities: storage pm msi pciexpress ahci_1.0 bus_master cap_list rom
       configuration: driver=ahci latency=0
       resources: irq:278 ioport:c050(size=8) ioport:c040(size=4) ioport:c030(size=8) ioport:c020(size=4) ioport:c000(size=32) memory:90a10000-90a107ff memory:90a00000-90a0ffff
  *-scsi:0
       physical id: 1
       logical name: scsi0
       capabilities: emulated
     *-disk
          description: ATA Disk
          product: WDC WD40EFRX-68W
          vendor: Western Digital
          physical id: 0.0.0
          bus info: scsi@0:0.0.0
          logical name: /dev/sda
          version: 0A82
          serial: WD-WCC4E1SSPZV8
          size: 3726GiB (4TB)
          capabilities: removable
          configuration: ansiversion=5 logicalsectorsize=512 sectorsize=4096
        *-medium
             physical id: 0
             logical name: /dev/sda
             size: 3726GiB (4TB)
  *-scsi:1
       physical id: 2
       logical name: scsi3
       capabilities: emulated
     *-disk
          description: ATA Disk
          product: WDC WD40EFRX-68W
          vendor: Western Digital
          physical id: 0.0.0
          bus info: scsi@3:0.0.0
          logical name: /dev/sdb
          version: 0A82
          serial: WD-WCC4E3HS69CC
          size: 3726GiB (4TB)
          capabilities: removable
          configuration: ansiversion=5 logicalsectorsize=512 sectorsize=4096
        *-medium
             physical id: 0
             logical name: /dev/sdb
             size: 3726GiB (4TB)
  *-scsi:2
       physical id: 3
       logical name: scsi4
       capabilities: emulated
     *-disk
          description: ATA Disk
          product: WDC WD40EFRX-68W
          vendor: Western Digital
          physical id: 0.0.0
          bus info: scsi@4:0.0.0
          logical name: /dev/sdc
          version: 0A82
          serial: WD-WCC4E3VNJ5R2
          size: 3726GiB (4TB)
          capabilities: removable
          configuration: ansiversion=5 logicalsectorsize=512 sectorsize=4096
        *-medium
             physical id: 0
             logical name: /dev/sdc
             size: 3726GiB (4TB)
  *-scsi:3
       physical id: 4
       logical name: scsi7
       capabilities: emulated
     *-disk
          description: ATA Disk
          product: WDC WD40EFRX-68W
          vendor: Western Digital
          physical id: 0.0.0
          bus info: scsi@7:0.0.0
          logical name: /dev/sdd
          version: 0A82
          serial: WD-WCC4E1TJ37PK
          size: 3726GiB (4TB)
          capabilities: removable
          configuration: ansiversion=5 logicalsectorsize=512 sectorsize=4096
        *-medium
             physical id: 0
             logical name: /dev/sdd
             size: 3726GiB (4TB)

我已将驱动器状态放在https://pastebin.com/bstnDcHe上,因为它不再适合这篇文章(超过 30.000 个字符)。

我也试过(我在另一篇文章中找到):

server@server:~$ sudo mdadm --stop /dev/md0
mdadm: stopped /dev/md0
server@server:~$ sudo mdadm --assemble --scan --verbose
mdadm: looking for devices for /dev/md0
mdadm: no recogniseable superblock on /dev/sde4
mdadm: no recogniseable superblock on /dev/sde3
mdadm: no recogniseable superblock on /dev/sde2
mdadm: Cannot assemble mbr metadata on /dev/sde1
mdadm: Cannot assemble mbr metadata on /dev/sde
mdadm: /dev/sdd is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdc is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdb is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sda is identified as a member of /dev/md0, slot 0.
mdadm: added /dev/sdb to /dev/md0 as 1
mdadm: added /dev/sdc to /dev/md0 as 2 (possibly out of date)
mdadm: added /dev/sdd to /dev/md0 as 3
mdadm: added /dev/sda to /dev/md0 as 0
mdadm: /dev/md0 assembled from 3 drives - not enough to start the array while not clean - consider --force.

这不起作用,并且进一步没有给我任何驱动器故障的迹象。

所以,对我来说,不太确定驱动器是否出现故障(因此应该更换),或者我是否可以继续使用“--force”,这听起来好像如果驱动器仍然会损坏,它可能会损坏某些东西。

server mdadm 16.04 raid5
  • 1 个回答
  • 2287 Views
Martin Hope
Chemdream
Asked: 2018-10-10 17:19:00 +0800 CST

MDADM 全新安装磁盘故障

  • 0

我有一个独特的 mdadm 问题。

我有一个 8 磁盘 raid5。(存储,不是启动盘)。

我卖掉了电脑,所以我在上面安装了全新的 ubuntu。

在那个时候,其中一个驱动器死了。所以有 8 个驱动器,只有 7 个工作。

出于某种原因,因此,计算机在启动时挂起并等待它。我以前从未见过这样的事情!

我可以进入根恢复模式。

但是因为这个新安装从来没有看到死驱动器,所以它在 mdadm 中被列为驱动器#,但它没有与之关联的“/dev/sdX”。

所以我没有办法让磁盘发生故障。

在恢复模式下,我可以停止阵列。但是停止后我无法将其删除。

由于我们不关心在突袭中保存数据,所以我将所有超级块归零。这甚至似乎都行不通。

有任何想法吗?

raid mdadm raid5
  • 1 个回答
  • 161 Views
Martin Hope
IT Gremlin
Asked: 2018-09-22 01:10:10 +0800 CST

如何使用 GParted 对驱动器进行分区,为 Ubuntu Server 做好准备?

  • 0

我正在使用带有 4 个 500GB 驱动器的 8 核 PC 来制作小型存储服务器。它只是用于应该被办公室里的老鼠删除的电子邮件和文件不会让他们离开。

最初,我使用的是 Intel 的 BIOS fake raid,并在服务器 16.04 上启动并运行它。但是,我从同一个电源分配块上拔下了一个插头并切断了它的电源。它决定完全打破 apt 等。认为更容易对它进行核攻击并重新开始我到此为止。

Ubuntu 18.04 默认使用交换文件,而不是以前使用专用交换分区的方法。

无法使用假 raid 或软 raid 安装 16.04 或 18.04,我想我会再添加一个旧的 80GB,将其作为引导驱动器并使用 ZFS。

当安装顺利时,屏幕上只会出现一个光标。没有关于“无启动媒体”的消息。我刚刚让它运行了一夜,并希望使用 DD 销毁驱动器上的每个数据字节,以清除以前尝试的任何旧引导信息。

我最初想要实现的是:

(尝试使用 HTML 标记或代码块很好地显示此内容。>:[ )

驱动器 1

  • 原始 = 5.5 GB /启动
  • LVM / RAID5 = 10GB /
  • RAID5 = GB /home 的其余部分

驱动器 2-4

  • 原始 = 5.5GB 交换
  • LVM / RAID 5 = 10GB /
  • RAID5 = GB /home 的其余部分
boot partitioning gparted raid raid5
  • 1 个回答
  • 228 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    如何运行 .sh 脚本?

    • 16 个回答
  • Marko Smith

    如何安装 .tar.gz(或 .tar.bz2)文件?

    • 14 个回答
  • Marko Smith

    如何列出所有已安装的软件包

    • 24 个回答
  • Marko Smith

    无法锁定管理目录 (/var/lib/dpkg/) 是另一个进程在使用它吗?

    • 25 个回答
  • Martin Hope
    Flimm 如何在没有 sudo 的情况下使用 docker? 2014-06-07 00:17:43 +0800 CST
  • Martin Hope
    Ivan 如何列出所有已安装的软件包 2010-12-17 18:08:49 +0800 CST
  • Martin Hope
    La Ode Adam Saputra 无法锁定管理目录 (/var/lib/dpkg/) 是另一个进程在使用它吗? 2010-11-30 18:12:48 +0800 CST
  • Martin Hope
    David Barry 如何从命令行确定目录(文件夹)的总大小? 2010-08-06 10:20:23 +0800 CST
  • Martin Hope
    jfoucher “以下软件包已被保留:”为什么以及如何解决? 2010-08-01 13:59:22 +0800 CST
  • Martin Hope
    David Ashford 如何删除 PPA? 2010-07-30 01:09:42 +0800 CST

热门标签

10.10 10.04 gnome networking server command-line package-management software-recommendation sound xorg

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve