AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / server / 问题

问题[raid1](server)

Martin Hope
ADY
Asked: 2022-01-28 11:13:14 +0800 CST

RAID 推荐请求:2x RAID5 阵列、1 个大型 RAID5、RAID10?

  • 1

我刚刚订购了一台新的 PowerEdge R650,它将成为我们公司的主服务器。它将运行带有 10 到 12 个虚拟机的 HyperV,主要是 Windows,但也有一些 Ubuntu。所有标准:域控制器、文件服务器、Web 服务器、Exchange(混合如此少的流量/存储)等。最密集的磁盘将是 SQL Server,800Gb 的数据库预计将在未来三年内增长到 1.1Tb服务器更换。

目前对于数据驱动器,我在 RAID 5 中有 5 个 1.92Tb SAS 12Gb 企业混合使用 SSD,总共 7.2Tb。我们正在使用其中的 3.8Tb。新服务器将在 PERC 755 RAID 控制器上配备 6 个相同类型的驱动器。操作系统驱动器将是带有两个 480 SSD 的 RAID1。

每晚对每个虚拟机进行完全备份,并且每周在异地进行复制。因此,我关心容错,但并不过分担心,好像我们遇到了故障,我们会启动副本并恢复自上次完整备份以来发生的任何变化。对于这些,最有效/最宽容但最快的配置是什么?我认为一个大型 RAID5 阵列不是即使我们目前正在运行的也没有任何问题。两个 RAID5 阵列每个都是 3.84Tb,我可以相应地拆分虚拟机。一个 RAID10 给了我 5.76 并且还有足够的未来空间,但我正在读取/写入单个阵列。我什至可以创建三个独立的 RAID1 阵列,但这对我来说似乎有点矫枉过正,但可能比 RAID10 更有意义。

有什么建议么?在上述每种情况(RAID5、2x RAID5、1x RAID10 或 3x RAID1)中,我将拥有至少 2Tb 的扩展空间,因此最终磁盘大小不是问题,只是性能/效率/容差。

raid5 raid10 windows-server-2019 raid1 dell-perc
  • 2 个回答
  • 53 Views
Martin Hope
Suurune
Asked: 2021-12-22 05:50:06 +0800 CST

将 RAID1 硬盘 (Dell PowerEdge R430) 更改为另一台相同的服务器

  • 0

我是服务器配置和基础架构的新手。

如果我有两台相同的服务器 (PowerEdge R430),一台用于不带 HDD 的备用服务器(称为 S1),另一台用于在线使用 HDD (S2)。如果我从 S2 中取出 HDD 并将其放在 S1 上,它是否可以在无需配置的情况下工作? 

我尝试克隆一个 HDD(使用 macrium reflect),然后在只有克隆的 HDD 的实验室服务器中启动,但它没有显示虚拟磁盘。

我需要这个,因为负责在紧急情况下解决问题的小组不了解软件,只有硬件,并且修复需要快速(工业自动化维护团队)。所以现在我们有了虚拟机所需的备份,但他们想删除虚拟机,因为他们不知道如何使用它。

dell-poweredge raid1
  • 1 个回答
  • 40 Views
Martin Hope
newbie
Asked: 2021-10-22 01:16:22 +0800 CST

降级后的 RAID1 恢复

  • 0

下面是我的 2 磁盘 Raid1 阵列的 lsblk、mdadm 和 /proc/mdstat 的输出

anand@ironman:~$ lsblk 
NAME                      MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                         8:0    0 465.8G  0 disk  
|-sda1                      8:1    0   976M  0 part  
| `-md0                     9:0    0 975.4M  0 raid1 
|   `-vg_boot-boot (dm-6) 253:6    0   972M  0 lvm   /boot
`-sda2                      8:2    0 464.8G  0 part  
sdb                         8:16   0 465.8G  0 disk  
|-sdb1                      8:17   0   976M  0 part  
`-sdb2                      8:18   0 464.8G  0 part  
  `-md1                     9:1    0 464.7G  0 raid1 
    |-vg00-root (dm-0)    253:0    0  93.1G  0 lvm   /
    |-vg00-home (dm-1)    253:1    0  96.6G  0 lvm   /home
    |-vg00-var (dm-2)     253:2    0  46.6G  0 lvm   /var
    |-vg00-usr (dm-3)     253:3    0  46.6G  0 lvm   /usr
    |-vg00-swap1 (dm-4)   253:4    0   7.5G  0 lvm   [SWAP]
    `-vg00-tmp (dm-5)     253:5    0   952M  0 lvm   /tmp

anand@ironman:~$ cat /proc/mdstat
Personalities : [raid1] 
md1 : active raid1 sdb2[1]
      487253824 blocks super 1.2 [2/1] [_U]
      
md0 : active raid1 sda1[0]
      998848 blocks super 1.2 [2/1] [U_]
      
unused devices: <none>

anand@ironman:~$ sudo mdadm -D /dev/md0 /dev/md1
/dev/md0:
        Version : 1.2
  Creation Time : Wed May 22 21:00:35 2013
     Raid Level : raid1
     Array Size : 998848 (975.60 MiB 1022.82 MB)
  Used Dev Size : 998848 (975.60 MiB 1022.82 MB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Thu Oct 21 14:35:36 2021
          State : clean, degraded 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : ironman:0  (local to host ironman)
           UUID : cbcb9fb6:f7727516:9328d30a:0a970c9b
         Events : 4415

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       0        0        1      removed
/dev/md1:
        Version : 1.2
  Creation Time : Wed May 22 21:00:47 2013
     Raid Level : raid1
     Array Size : 487253824 (464.68 GiB 498.95 GB)
  Used Dev Size : 487253824 (464.68 GiB 498.95 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Thu Oct 21 14:35:45 2021
          State : clean, degraded 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : ironman:1  (local to host ironman)
           UUID : 3f64c0ce:fcb9ff92:d5fd68d7:844b7e12
         Events : 63025777

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       18        1      active sync   /dev/sdb2

用于从 raid1 故障中恢复的命令是什么?

我是否必须获得一个新硬盘才能安全地重新组装 raid1 设置?

更新1:

    anand@ironman:~$ sudo smartctl -H /dev/sda 
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-4-amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
Please note the following marginal Attributes:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
190 Airflow_Temperature_Cel 0x0022   054   040   045    Old_age   Always   In_the_past 46 (0 174 46 28)

anand@ironman:~$ sudo smartctl -H /dev/sdb
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-4-amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

anand@ironman:~$ 

智能信息:

smartctl -a -data /dev/sda 的输出 smartctl -a -data /dev/sdb 的输出

更新 2:

anand@ironman:~$ sudo blkid -o list
device                                  fs_type        label           mount point                                 UUID
-------------------------------------------------------------------------------------------------------------------------------------------------------
/dev/sda1                               linux_raid_member ironman:0    (in use)                                    cbcb9fb6-f772-7516-9328-d30a0a970c9b
/dev/sda2                               linux_raid_member ironman:1    (not mounted)                               3f64c0ce-fcb9-ff92-d5fd-68d7844b7e12
/dev/sdb1                               linux_raid_member ironman:0    (not mounted)                               cbcb9fb6-f772-7516-9328-d30a0a970c9b
/dev/sdb2                               linux_raid_member ironman:1    (in use)                                    3f64c0ce-fcb9-ff92-d5fd-68d7844b7e12
/dev/md0                                LVM2_member                    (in use)                                    JKI3Lr-VdDK-Ogsk-KOQk-jSKJ-udAV-Vt4ckP
/dev/md1                                LVM2_member                    (in use)                                    CAqW3D-WJ7g-2lbw-G3cn-nidp-2jdQ-evFe7r
/dev/mapper/vg00-root                   ext4           root            /                                           82334ff8-3eff-4fc7-9b86-b11eeda314ae
/dev/mapper/vg00-home                   ext4           home            /home                                       8e9f74dd-08e4-45a3-a492-d4eaf22a1d68
/dev/mapper/vg00-var                    ext4           var             /var                                        0e798199-3219-458d-81b8-b94a5736f1be
/dev/mapper/vg00-usr                    ext4           usr             /usr                                        d8a335fc-72e6-4b98-985e-65cff08c4e22
/dev/mapper/vg00-swap1                  swap                           <swap>                                      b95ee4ca-fcca-487f-b6ff-d6c0d49426d8
/dev/mapper/vg00-tmp                    ext4           tmp             /tmp                                        c879fae8-bd25-431d-be3e-6120d0381cb8
/dev/mapper/vg_boot-boot                ext4           boot            /boot                                       12684df6-6c4a-450f-8ed1-d3149609a149

-- 结束更新 2

更新 3 - 遵循 Nikita 的建议后:

/dev/md0:                                                                   │                                                                           
        Version : 1.2                                                       │                                                                           
  Creation Time : Wed May 22 21:00:35 2013                                  │                                                                           
     Raid Level : raid1                                                     │                                                                           
     Array Size : 998848 (975.60 MiB 1022.82 MB)                            │                                                                           
  Used Dev Size : 998848 (975.60 MiB 1022.82 MB)                            │                                                                           
   Raid Devices : 2                                                         │                                                                           
  Total Devices : 2                                                         │                                                                           
    Persistence : Superblock is persistent                                  │                                                                           
                                                                            │                                                                           
    Update Time : Fri Oct 22 21:20:09 2021                                  │                                                                           
          State : clean                                                     │                                                                           
 Active Devices : 2                                                         │                                                                           
Working Devices : 2                                                         │                                                                           
 Failed Devices : 0                                                         │                                                                           
  Spare Devices : 0                                                         │                                                                           
                                                                            │                                                                           
           Name : ironman:0  (local to host ironman)                        │                                                                           
           UUID : cbcb9fb6:f7727516:9328d30a:0a970c9b                       │                                                                           
         Events : 4478                                                      │                                                                           
                                                                            │                                                                           
    Number   Major   Minor   RaidDevice State                               │                                                                           
       0       8        1        0      active sync   /dev/sda1             │                                                                           
       2       8       17        1      active sync   /dev/sdb1   



anand@ironman:~/.scripts/automatem/bkp$ sudo mdadm -D /dev/md1              │                                                                           
/dev/md1:                                                                   │                                                                           
        Version : 1.2                                                       │                                                                           
  Creation Time : Wed May 22 21:00:47 2013                                  │                                                                           
     Raid Level : raid1                                                     │                                                                           
     Array Size : 487253824 (464.68 GiB 498.95 GB)                          │                                                                           
  Used Dev Size : 487253824 (464.68 GiB 498.95 GB)                          │                                                                           
   Raid Devices : 2                                                         │                                                                           
  Total Devices : 2                                                         │                                                                           
    Persistence : Superblock is persistent                                  │                                                                           
                                                                            │                                                                           
    Update Time : Fri Oct 22 21:21:37 2021                                  │                                                                           
          State : clean                                                     │                                                                           
 Active Devices : 2                                                         │                                                                           
Working Devices : 2                                                         │                                                                           
 Failed Devices : 0                                                         │                                                                           
  Spare Devices : 0                                                         │                                                                           
                                                                            │                                                                           
           Name : ironman:1  (local to host ironman)                        │                                                                           
           UUID : 3f64c0ce:fcb9ff92:d5fd68d7:844b7e12                       │                                                                           
         Events : 63038935                                                  │                                                                           
                                                                            │                                                                           
    Number   Major   Minor   RaidDevice State                               │                                                                           
       2       8       18        0      active sync   /dev/sdb2             │                                                                           
       1       8       34        1      active sync   /dev/sdc2 

谢谢你们!

阿南德

mdadm raid1
  • 1 个回答
  • 108 Views
Martin Hope
Hendrik
Asked: 2021-10-06 03:25:47 +0800 CST

如何使用 2 个不同大小的 4 个磁盘创建 LVM RAID 1?

  • 1

我有一个系统

2 x 1TB (NVMe SSDs)
2 x 2TB (SATA SSDs)

磁盘,并想使用所有可用磁盘创建一个 RAID 1 系统(所以我最后有一个 3TB RAID1 系统)。不幸的是,大多数关于如何设置的示例仅适用于两个磁盘。

这里推荐的方法是什么?

  • 为每个磁盘大小创建 RAID1,即镜像相同类型的磁盘,然后在其上创建一个大型逻辑卷?
  • 还是有其他更聪明的方法?

如果有人有一步一步的食谱(或一个很好的链接),那将非常感激。

另外,我需要一个单独的系统或引导分区吗?

谢谢你。

linux ubuntu lvm mdadm raid1
  • 1 个回答
  • 729 Views
Martin Hope
Crash Override
Asked: 2021-06-02 19:29:45 +0800 CST

软件 RAID-1 是否会使控制器/接口上的写入翻倍?

  • 1

假设我有两个硬盘驱动器,每个硬盘驱动器的最大写入速度为 200 MBytes/sec。现在假设两个驱动器都在一个 USB 机箱中,整个机箱的最大写入速度为 300 MBytes/sec。

在 Linux 上设置两个驱动器的软件 RAID-1(镜像)时mdadm,是否可以通过将两个驱动器分别放入不同的 USB 机箱来提高写入性能?

问这个问题的另一种方式是,mdadm软件 RAID-1是否会使 USB 机箱所需的写入带宽增加一倍?

raid mdadm software-raid raid10 raid1
  • 1 个回答
  • 119 Views
Martin Hope
MonsterMMORPG
Asked: 2021-05-20 07:02:56 +0800 CST

Raid 1 默认磁盘容量小于磁盘大小。有任何想法吗?英特尔 Raid 存储技术 - 来自 Bios 的 Raid

  • 2

这里的截图我认为他们解释了一切

磁盘被宣传为 1 TB,磁盘的实际大小为 931.5 GB

我已经安装了没有raid设置的windows服务器进行实验。两个磁盘都可以正常工作,没有不可用的扇区,并且所有 931 GB 都可以使用。

在此处输入图像描述

在此处输入图像描述

编辑我找到了这个链接

https://support.lenovo.com/tr/en/solutions/ht507601-intelr-rapid-storage-technology-enterprises-default-volume-size-is-not-maximum-size-lenovo-thinkserver

删除 RAID 并尝试再次组合后,我还看到 95% 的阵列分配

在此处输入图像描述

bios raid ssd intel raid1
  • 5 个回答
  • 622 Views
Martin Hope
NON
Asked: 2021-03-19 07:51:14 +0800 CST

更改 SATA 控制器后重新启动时,RAID1 阵列总是降级

  • 1

添加 SATA 控制器后重新启动时,我的软件 RAID1 阵列(/boot、/)总是降级。它是 CentOS 7。这是正在发生的事情和已经完成的事情:

  1. 我使用以下设置制作了 4 磁盘 RAID1 阵列:SATA 控制器 A (-HDD1 / -HDD2) + SATA 控制器 B (-HDD3 / -HDD4)
  2. Cont-A 有问题,所以我添加了另一个 Cont-C,并将 HDD1/2 从 Cont-A 移动到 Cont-C。因此,设置如下: Cont-A (none) + Cont-B (-HDD3 / -HDD4) + Cont.C (-HDD1 / -HDD2)
  3. 在此交换之后,在每次(重新)启动时,RAID1 阵列总是会降级,只有 HDD3/4 处于活动状态。
  4. 我可以将 HDD1/2 重新添加到 RAID1 阵列,但它们在重新启动后再次降级,丢失了 HDD1/2。

我怀疑这是因为 CentOS 在启动阶段没有看到 Cont-C(及其子公司 HDD1/2),因为启动序列停止了大约 2 分钟,而 HDD1/2 很晚才出现在 dmesg 上。

当引导顺序设置为这样时,我可以从 HDD1/2 引导(尽管仍然从 RAID1 丢失 HDD1/2),所以至少 BIOS 可以正确识别 Cont-C。

有没有办法解决这个问题?

mdadm centos7 raid1 degraded
  • 1 个回答
  • 66 Views
Martin Hope
surfcode
Asked: 2021-01-07 16:54:24 +0800 CST

用旧硬盘更换 RAID 1 硬盘

  • 1

我们有一个 HD Proliant G8,其中有 2 个 HDD 构建了 RAID 1。其中一个 HDD 驱动器指示灯变为琥珀色,并且 iLO 显示 Bay 2 磁盘出现故障。我想用从其他闲置的旧服务器中拉出的驱动器替换故障驱动器。那些使用的 HDD 具有相同的大小和型号,并且还构建了 RAID 1。我以前从来没有这样做过。在将旧硬盘热插入此服务器之前,我是否需要“擦除”旧硬盘?如果是这样,我如何使用这个 G8 服务器“擦除”旧磁盘?将其插入 Bay 3,并获得 HP Intelligent Provisioning 帮助(任何详细指南?)?

hp raid1
  • 1 个回答
  • 424 Views
Martin Hope
user5416
Asked: 2020-11-02 06:22:12 +0800 CST

mdadm:raid1 重建期间电源故障

  • 4

使用 mdadm 创建的 RAID1 阵列;发生电源故障时正在重建阵列。回来后,阵列似乎已经死了。

# cat /proc/mdstat
Personalities : [raid1]
md0 : inactive sdb1[2](S) sda1[3](S)
15627751424 blocks super 1.2

# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
# mdadm --assemble /dev/md1 /dev/sda1 /dev/sdb1
mdadm: /dev/md1 assembled from 0 drives and 1 rebuilding - not enough to start the array.

我不知道为什么它说 0 个驱动器 - 我预计 1 个重建,但另一个驱动器应该没问题。我真的不想意外地做任何破坏性的事情——我应该怎么做才能让阵列恢复到可以在其上运行 fsck 的状态?

/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x3
     Array UUID : c4ea2289:c63bc8ce:e6fe5806:5bebe020
           Name : ******:0  (local to host ******)
  Creation Time : Thu Aug 20 20:48:53 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 15627718656 (7451.88 GiB 8001.39 GB)
     Array Size : 7813859328 (7451.88 GiB 8001.39 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
Recovery Offset : 7331083264 sectors
   Unused Space : before=264112 sectors, after=0 sectors
          State : clean
    Device UUID : ae984a41:f3e421f4:f10e1fac:d7955178

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Oct 31 17:13:53 2020
  Bad Block Log : 512 entries available at offset 40 sectors
       Checksum : 4be47968 - correct
         Events : 1079809


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : c4ea2289:c63bc8ce:e6fe5806:5bebe020
           Name : ******:0  (local to host ******)
  Creation Time : Thu Aug 20 20:48:53 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 15627784192 (7451.91 GiB 8001.43 GB)
     Array Size : 7813859328 (7451.88 GiB 8001.39 GB)
  Used Dev Size : 15627718656 (7451.88 GiB 8001.39 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=65536 sectors
          State : active
    Device UUID : 0abf70e2:7e0e43ca:a22548a2:ef87e9c0

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Oct 31 17:13:31 2020
  Bad Block Log : 512 entries available at offset 40 sectors
       Checksum : 4cf65df4 - correct
         Events : 1079799


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

查看带有 xxd 的驱动器,两者似乎仍然包含数据。这是我自己可以合理管理的事情,还是该找数据恢复公司了?

编辑:Wazoox 的回答有效。

#  mdadm --assemble --scan --force
mdadm: forcing event count in /dev/sda1(1) from 1079799 upto 1079809
mdadm: /dev/md0 has been started with 1 drive (out of 2) and 1 rebuilding.
# cat /proc/mdstat
Personalities : [raid1]
md0 : active (auto-read-only) raid1 sdb1[3] sda1[2]
      7813859328 blocks super 1.2 [2/1] [_U]
      bitmap: 59/59 pages [236KB], 65536KB chunk
raid mdadm software-raid raid1 md
  • 1 个回答
  • 216 Views
Martin Hope
GCon
Asked: 2020-10-16 07:32:03 +0800 CST

RAID-1 阵列上的数据布局

  • 0

为了这个问题,假设两个相同驱动器的 RAID-1 阵列。

RAID-1(镜像)在两个驱动器上存储相同的数据副本。

驱动器布局有多相同?

驱动器是否逐个扇区相同(逻辑) -排除可能的 RAID 元数据?

如果不是,我假设需要在某处存储布局数据。这是在 RAID 控制器本身上,还是在驱动器内?

在相当老的软件工程师和年轻的软件工程师之间进行了一场(相当激烈的)讨论。这可能已经改变了吗?

raid hardware-raid raid1
  • 1 个回答
  • 97 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve