私有云上的专用服务器,由四个磁盘组成。
其中一张磁盘包含操作系统 (OS)。如果磁盘出现故障,服务器将无法启动,并且我们无法以简单的方式从其他磁盘提取数据。即使磁盘被挂载为只读,我们仍然需要重新安装操作系统,这需要关闭服务器。
如果您能推荐一些资源或书籍来减少此类错误,我将不胜感激。
此外,我想知道如何管理这些“脆弱”专用服务器的正常运行时间。
私有云上的专用服务器,由四个磁盘组成。
其中一张磁盘包含操作系统 (OS)。如果磁盘出现故障,服务器将无法启动,并且我们无法以简单的方式从其他磁盘提取数据。即使磁盘被挂载为只读,我们仍然需要重新安装操作系统,这需要关闭服务器。
如果您能推荐一些资源或书籍来减少此类错误,我将不胜感激。
此外,我想知道如何管理这些“脆弱”专用服务器的正常运行时间。
确定 2 个逻辑驱动器是否在同一设备上的最简单方法是什么?
我可以远程访问服务器,但我无法直接访问托管公司来直接提问。一种方法是查看在每个驱动器上运行的操作是否同时对另一个驱动器产生负面影响。但是,是否有某种方法可以通过查看某些设备属性或类似内容来更简单地确定?
例如,一个磁盘有8个面,每个面有一个磁头。如果除一个磁头外所有磁头都消失了,则磁盘可以达到 10MB。如果使用所有磁头,速度会是多少?
我用 2 TB 硬盘替换了一个 1 TB 硬盘(它包含一个 EXT4 分区,其中有很多硬链接到该分区内的备份文件/目录。它还有一堆常规文件/目录),现在我正在尝试将前者的数据从外部硬盘读取器复制回新磁盘。不幸的是,旧磁盘似乎不喜欢被拖回家,现在它拒绝安装唯一的分区。
gdisk /dev/sdf1
显示:
GPT fdisk (gdisk) version 1.0.6
Warning: Partition table header claims that the size of partition table
entries is 0 bytes, but this program supports only 128-byte entries.
Adjusting accordingly, but partition table may be garbage.
Warning: Partition table header claims that the size of partition table
entries is 0 bytes, but this program supports only 128-byte entries.
Adjusting accordingly, but partition table may be garbage.
Partition table scan:
MBR: MBR only
BSD: not present
APM: not present
GPT: not present
Found invalid GPT and valid MBR; converting MBR to GPT format
in memory.
Warning! Secondary partition table overlaps the last partition by
1709333071 blocks!
You will need to delete this partition or resize it in another utility.
Disk /dev/sdf: 244190646 sectors, 931.5 GiB
Model: 003-1SB102
Sector size (logical/physical): 4096/4096 bytes
Disk identifier (GUID): 0B823749-13F7-4A4E-A8C4-F4F507A94A79
Partition table holds up to 128 entries
Main partition table begins at sector 2 and ends at sector 5
First usable sector is 6, last usable sector is 244190640
Partitions will be aligned on 256-sector boundaries
Total free space is 2042 sectors (8.0 MiB)
Number Start (sector) End (sector) Size Code Name
1 2048 1953523711 7.3 TiB 8300 Linux filesystem
让我感到困惑的是报告末尾声称的奇怪的二级分区表和虚幻的7.3 TiB。磁盘在取出之前运行良好,即使是现在,通过外部方式连接,smartmontools显示其运行状况也没有问题。
更多信息:
我猜这个问题与swapspace
磁盘运行时在该分区上启用服务有关。testdisk
实用程序检测到几个交换分区,我猜它们是swapspace
为保存交换数据而创建的交换文件。也许这些虚假的“分区”让 gdisk 误以为有 7 TB 的磁盘空间......
有什么想法/指导吗?
安东尼奥
如果我可以在我的问题之前提供一些背景知识。我正在结束我的网络开发业务,所以已经离开办公室搬到了 WFH。我可能每周只做一两天的工作。
有一台运行 FreeBSD Unix 的服务器。在办公室时,它是 24/7,但由于 WFH 和欧洲的能源成本,我无法证明一直开着它是合理的。
像普通台式电脑一样打开和关闭服务器是否有任何问题?硬盘驱动器是否与台式机硬盘驱动器有任何不同,因为它不应该经历尽可能多的开/关周期?
这是 2015 年购买的戴尔 PowerEdge T110 II。我无法从服务标签中找到确切的规格,只是发现它最多支持四个 3.5 英寸有线 SAS 或 SATA 内部驱动器。它们不是固态的。
谢谢。
我们有配备 Ubuntu 20.04.4 LTS 的 HP 服务器 HP ProLiant ML10 Gen 9。我们使用 Intel RST Raid 配置(这是一个假/固件 raid)为两个 HDD 大小的 2TB 启用了 Raid 1 阵列。现在我的目标是更换故障驱动器并重建 Raid 1 阵列。
以下是 Raid 状态cat /proc/mdstat的输出
surya@himalaya:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[1] sdb[0]
1953511424 blocks super external:/md127/0 [2/2] [UU]
md127 : inactive sda[1](S) sdb[0](S)
6320 blocks super external:imsm
unused devices: <none>
下面是 HDD info lsblk 的输出
surya@himalaya:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 61.9M 1 loop /snap/core20/1361
loop1 7:1 0 67.9M 1 loop /snap/lxd/22526
loop2 7:2 0 55.5M 1 loop /snap/core18/2284
loop3 7:3 0 43.6M 1 loop /snap/snapd/14978
loop4 7:4 0 55.4M 1 loop /snap/core18/2128
loop5 7:5 0 43.6M 1 loop /snap/snapd/15177
loop6 7:6 0 67.2M 1 loop /snap/lxd/21835
loop7 7:7 0 61.9M 1 loop /snap/core20/1376
sda 8:0 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sdb 8:16 0 1.8T 0 disk
└─md126 9:126 0 1.8T 0 raid1
├─md126p1 259:0 0 1.1G 0 part /boot/efi
├─md126p2 259:1 0 1.5G 0 part /boot
└─md126p3 259:2 0 1.8T 0 part
├─ubuntu--vg-ubuntu--lv 253:0 0 100G 0 lvm /
└─ubuntu--vg-lv--0 253:1 0 1.7T 0 lvm /home
sr0 11:0 1 1024M 0 rom
我使用下面的命令来替换有故障的驱动器 sdb,如上图所示。
mdadm --manage /dev/md126 --fail /dev/sdb我关闭了系统并更换了同一端口中的硬盘。
现在,当我尝试使用此命令mdadm --manage /dev/md126 --add /dev/sdb重建阵列时,我收到以下消息。
root@himalaya:~# mdadm --manage /dev/md126 --add /dev/sdb
mdadm: Cannot add disks to a 'member' array, perform this operation on the parent container
现在cat /proc/mdstat的输出如下。
root@himalaya:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda[0]
1953511424 blocks super external:/md127/0 [2/1] [U_]
md127 : inactive sda[0](S)
3160 blocks super external:imsm
unused devices: <none>
我还尝试使用 (Ctrl + i) 在 BIOS 中输入 Intel ROM 选项,我已在 BIOS 设置中的 SATA 配置下将OROM UI 正常延迟设置为 4 秒。但我无法让那个屏幕在 BIOS 中重建阵列。如果有人可以帮助我重建和恢复 Raid 1 阵列,那将是一个很大的帮助。
我有一个运行 3 个硬盘的 RAID 的 FreeBSD。我面临监控其 RAID 的挑战 - 如果硬盘出现故障或出现一些我需要知道的问题。
所以,我现在做的第一件事是尝试了解 SmartCTL 的工作原理……我目前使用的命令是:
smartctl --scan -j - To scan my devices and generated a JSON Structured list.
smartctl -i /dev/device_name - To list informations about a single device
smartctl -a /dev/your-device - More information like errors and etc (I think i can use this in some way to grep only errors sections...)
SmartCTL 是否还有其他参数可以检查磁盘是否可写、是否处于活动状态以及其健康状态是否正常?
这个理解的主要目的是主要使用 SmartCTL 来生成数据,这些数据将用于 pfSense RAID Monitoring with Low Level Discovery for Zabbix Monitoring Software 的模板中......
任何帮助都将不胜感激。
我最近在我的服务器上添加了一个驱动器。但是,今天早上我检查了我的电脑,发现驱动器没有显示在 NTFS 上,我注意到所有文件夹和文件都从服务器上的那个挂载点消失了。
注意:我使用的是 Ubuntu CLI 20.04.4 LTS || 所附图像显示系统日志。
我在一对 3TB 驱动器上有一个现有的 raid1 阵列。
~ ? cat /proc/mdstat
Personalities : [raid1]
md127 : active raid1 sde1[0] sdc1[1]
2930133440 blocks super 1.2 [2/2] [UU]
bitmap: 5/22 pages [20KB], 65536KB chunk
我还有一对 14TB 驱动器。
我想将 14TB 驱动器分区为 3TB 驱动器的确切大小,这样我就可以使用 mdadm 创建另一个 raid1 阵列,然后在顶部使用 btrfs raid0 来获得 RAID10。
如何在 14TB 上创建与 3TB 磁盘大小相同的分区?
是否有任何缺陷使此过程不同于查找 3TB 磁盘的大小并将其应用于 14TB 磁盘?
我正在尝试在我的 DS1515+ 中安装新硬盘。硬盘是全新的 Seagate Exos X。
我已经购买了 3 个这样的驱动器,其中 1 个工作正常,现在是我的存储池的一部分,但是当我在 DS 中安装它们时,另外 2 个给我一个错误。错误是“发生了多个重置命令错误...”。
在存储管理器中,我无法继续,并且系统不允许我初始化磁盘以使其成为存储池的一部分。我已经尝试安全擦除其中一张磁盘,但没有成功。
我查看了 DS linux 终端的 dmesg 输出,没有发现给我带来麻烦的磁盘错误。
但我可以在所有扩展视图中看到,没有发生有关重置/重新识别/重新连接等的错误。那么,为什么 Storage Manager 会停留在“关键”状态?
当连接到另一台计算机时,这两个磁盘都可以正常工作,所以我相信它们在物理上是 100% 正常的。
我怀疑磁盘由于某些历史数据而被 DS 拒绝。首先,我尝试使用 DS1515+ 的 2 个 ESATA 端口连接两个有问题的磁盘,但这些磁盘从未出现在存储管理器中,并且我在 dmesg 日志中看到了一些重置/连接错误(使用 linux 终端)。这可能是因为旧的不稳定 ESATA 电缆。但我的理论是,这些磁盘通过 ESATA 连接时的事件导致 DS 将这些磁盘“列入黑名单”,因为它们曾经因片状电缆而导致“重置命令”。
如何强制 DS 接受这些磁盘并让我使用它们?有没有办法重置有关这些磁盘的任何历史知识,并让 DS 重新评估它们?