AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / server / 问题 / 1165265
Accepted
user1913559
user1913559
Asked: 2024-09-15 19:01:04 +0800 CST2024-09-15 19:01:04 +0800 CST 2024-09-15 19:01:04 +0800 CST

未发现损坏的 zpool 磁盘。如何重建?

  • 772

我有一台 Proxmox 服务器,上面有几个 zpool。其中一个 zpoolrust01是 4 磁盘 zpool,其中元数据和写入缓存是主板上的一些 nvme m.2 驱动器(每个驱动器一个 - 我知道,这很愚蠢,但这就是所做的)。

看起来好像rust01发生了灾难性故障。当我在服务器视图中单击时rust01,出现以下错误: could not activate storage 'rust01', zfs error: cannot import 'rust01': I/O error (500)

  • 当我转到{服务器}>磁盘>ZFS时,我看不到zpool rust01。

  • 当我转到{服务器}>磁盘时,我甚至看不到 4 个磁盘或特殊元数据文件或读/写缓存驱动器。

  • 当我跑步时zpool status -x我得到all pools are healthy

  • 当我运行时,zpool import rust01我收到以下消息:

    cannot import 'rust01': I/O error
    Destroy and re-create the pool from
    a backup source.
    

当我运行时,zpool status rust01我得到cannot open 'rust01': no such pool,当我重新启动服务器时,下面是通过电子邮件发送给我的错误:

ZFS has detected that a device was removed.
impact: Fault tolerance of the pool may be compromised.
eid: 10
class: statechange
state: UNAVAIL
host: pve01
time: 2024-09-14 21:20:32-0500
vpath: /dev/nvme2n1p1
vphys: pci-0000:41:00.0-nvme-1
vguid: 0x297D516B1F1D6494
devid: nvme-Samsung_SSD_970_EVO_Plus_2TB_S6S2NS0T815592K-part1
pool: rust01 (0xE4AAC2680D8B6A7E)

当我运行时,zpool destroy rust01我收到以下错误cannot open 'rust01': no such pool。理想情况下,我希望rust01重新上线。我相当确定问题是上述电子邮件中提到的特殊元数据磁盘。话虽如此,我很乐意销毁并重新创建rust01。该磁盘上的所有虚拟机都已备份,因此我可以轻松恢复(如果需要)。但是,我的问题是,我找不到让 Proxmox/ZFS 释放与损坏的 zpool 关联的磁盘的方法rust01。以下是的输出lsblk:

NAME        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
sda           8:0    1 465.8G  0 disk 
|-sda1        8:1    1  1007K  0 part 
|-sda2        8:2    1     1G  0 part 
`-sda3        8:3    1   464G  0 part 
sdb           8:16   1 465.8G  0 disk 
|-sdb1        8:17   1  1007K  0 part 
|-sdb2        8:18   1     1G  0 part 
`-sdb3        8:19   1   464G  0 part 
sdc           8:32   1   3.6T  0 disk 
|-sdc1        8:33   1   3.6T  0 part 
`-sdc9        8:41   1     8M  0 part 
sdd           8:48   1   3.6T  0 disk 
|-sdd1        8:49   1   3.6T  0 part 
`-sdd9        8:57   1     8M  0 part 
sde           8:64   1   3.6T  0 disk 
|-sde1        8:65   1   3.6T  0 part 
`-sde9        8:73   1     8M  0 part 
sdf           8:80   1   3.6T  0 disk 
|-sdf1        8:81   1   3.6T  0 part 
`-sdf9        8:89   1     8M  0 part 
sdg           8:96   1     0B  0 disk 
sdh           8:112  1     0B  0 disk 
sdi           8:128  1     0B  0 disk 
sdj           8:144  1     0B  0 disk 
sdk           8:160  1     0B  0 disk 
sdl           8:176  1     0B  0 disk 
sdm           8:192  1     0B  0 disk 
sdn           8:208  1     0B  0 disk 
sr0          11:0    1  1024M  0 rom  
sr1          11:1    1  1024M  0 rom  
sr2          11:2    1  1024M  0 rom  
sr3          11:3    1  1024M  0 rom  
zd0         230:0    0     4M  0 disk 
zd16        230:16   0    80G  0 disk 
`-zd16p1    230:17   0    80G  0 part 
zd32        230:32   0    64G  0 disk 
|-zd32p1    230:33   0     1M  0 part 
|-zd32p2    230:34   0     2G  0 part 
`-zd32p3    230:35   0    62G  0 part 
zd48        230:48   0    40G  0 disk 
|-zd48p1    230:49   0   600M  0 part 
|-zd48p2    230:50   0     1G  0 part 
`-zd48p3    230:51   0  38.4G  0 part 
zd64        230:64   0    32G  0 disk 
|-zd64p1    230:65   0    31G  0 part 
|-zd64p2    230:66   0     1K  0 part 
`-zd64p5    230:69   0   975M  0 part 
zd80        230:80   0    90G  0 disk 
|-zd80p1    230:81   0   100M  0 part 
|-zd80p2    230:82   0    16M  0 part 
|-zd80p3    230:83   0  89.4G  0 part 
`-zd80p4    230:84   0   523M  0 part 
zd96        230:96   0    90G  0 disk 
|-zd96p1    230:97   0   499M  0 part 
|-zd96p2    230:98   0   128M  0 part 
|-zd96p3    230:99   0  88.5G  0 part 
`-zd96p4    230:100  0   920M  0 part 
zd112       230:112  0   100G  0 disk 
|-zd112p1   230:113  0   499M  0 part 
|-zd112p2   230:114  0    99M  0 part 
|-zd112p3   230:115  0    16M  0 part 
`-zd112p4   230:116  0  99.4G  0 part 
zd128       230:128  0    64G  0 disk 
|-zd128p1   230:129  0     1M  0 part 
|-zd128p2   230:130  0     2G  0 part 
`-zd128p3   230:131  0    62G  0 part 
zd144       230:144  0    90G  0 disk 
|-zd144p1   230:145  0   500M  0 part 
`-zd144p2   230:146  0  89.5G  0 part 
zd160       230:160  0    60G  0 disk 
|-zd160p1   230:161  0   100M  0 part 
|-zd160p2   230:162  0    16M  0 part 
|-zd160p3   230:163  0  59.4G  0 part 
`-zd160p4   230:164  0   450M  0 part 
zd176       230:176  0    32G  0 disk 
|-zd176p1   230:177  0     1M  0 part 
|-zd176p2   230:178  0     2G  0 part 
`-zd176p3   230:179  0    30G  0 part 
zd192       230:192  0   100G  0 disk 
|-zd192p1   230:193  0   450M  0 part 
|-zd192p2   230:194  0    99M  0 part 
|-zd192p3   230:195  0  15.8M  0 part 
|-zd192p4   230:196  0  89.4G  0 part 
`-zd192p5   230:197  0   256K  0 part 
zd208       230:208  0    32G  0 disk 
|-zd208p1   230:209  0   600M  0 part 
|-zd208p2   230:210  0     1G  0 part 
`-zd208p3   230:211  0  30.4G  0 part 
zd224       230:224  0     1M  0 disk 
nvme1n1     259:0    0   1.8T  0 disk 
|-nvme1n1p1 259:1    0   1.8T  0 part 
`-nvme1n1p9 259:2    0     8M  0 part 
nvme3n1     259:3    0   1.8T  0 disk 
|-nvme3n1p1 259:4    0   1.8T  0 part 
`-nvme3n1p9 259:5    0     8M  0 part 
nvme0n1     259:6    0   1.8T  0 disk 
|-nvme0n1p1 259:7    0   1.8T  0 part 
`-nvme0n1p9 259:8    0     8M  0 part 
nvme2n1     259:9    0   1.8T  0 disk 
|-nvme2n1p1 259:10   0   1.8T  0 part 
`-nvme2n1p9 259:11   0     8M  0 part 

此主机上还有其他虚拟机在其他 zpool 上运行,看起来运行良好。因此,重新安装所有内容不是我想要的选择。

更新:在执行使用电源循环方法修复损坏的 SSD中概述的步骤后,4TB 硬盘出现在 Proxmox 中,尽管 zpool 无法访问。取得了一些进展,但仍然无法访问数据。

除了擦除受影响的 zpool 中的磁盘之外,还有什么其他想法吗?

zfs
  • 1 1 个回答
  • 67 Views

1 个回答

  • Voted
  1. Best Answer
    user1913559
    2024-09-16T22:45:32+08:002024-09-16T22:45:32+08:00

    最后我放弃了并决定销毁 zpool rust01。

    当尝试销毁 Proxmox 中使用的损坏的 zpool 时,您可能会遇到磁盘似乎始终处于使用状态且命令行和 UI 尝试擦除磁盘失败的问题。您可能需要注释掉 zpool /etc/pve/storage.cfg。之后,您将能够擦除与故障 zpool 相关的所有磁盘。单击此处了解更多信息。

    • 0

相关问题

  • 从现有目录创建 zfs 的正确方法?

  • 如何将 ZFS ACL 从一个文件克隆到另一个文件?

  • ZFS 在演示期间在舞台上失败。这是正常行为吗?

  • Sneakernet 作为备份策略有意义吗?

  • ZFS 与 XFS

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve