GI se deparou com um problema muito interessante (possivelmente). Me pareceu muito estranho, pois apareceu depois que houve um conflito duplo com o UUID de discos novos, frescos (já resolvi via vgimportclone
).
Aparentemente um dos meus parceiros tentou fazer vgimportclone
o VG acima. Agora tenho uma imagem ambígua.
Acredito sinceramente que PV e VG foram feitos um para o outro. Mas pvs
diz o contrário.
PV de saída:
WARNING: Device for PV eLMcjf-O3Xz-1kcl-ugF4-7h2T-Ucgf-caNhKk not found or rejected by a filter.
WARNING: Device for PV mvH0q0-gzwW-HJG1-qxtD-aa2B-xKxW-XLHUtw not found or rejected by a filter.
WARNING: Device for PV vVNap3-bzCi-w2ia-bHYd-TMSf-yr3f-0uHxW2 not found or rejected by a filter.
WARNING: Device for PV vRgMgL-oAIh-biR7-wvCf-cBNT-L3su-n7Wfsh not found or rejected by a filter.
Couldn’t find device with uuid eLMcjf-O3Xz-1kcl-ugF4-7h2T-Ucgf-caNhKk.
Couldn’t find device with uuid mvH0q0-gzwW-HJG1-qxtD-aa2B-xKxW-XLHUtw.
Couldn’t find device with uuid vVNap3-bzCi-w2ia-bHYd-TMSf-yr3f-0uHxW2.
Couldn’t find device with uuid vRgMgL-oAIh-biR7-wvCf-cBNT-L3su-n7Wfsh.
WARNING: PV /dev/mapper/mpathg is marked in use but no VG was found using it.
WARNING: PV /dev/mapper/mpathg might need repairing.
WARNING: PV /dev/mapper/mpathf is marked in use but no VG was found using it.
WARNING: PV /dev/mapper/mpathf might need repairing.
WARNING: PV /dev/mapper/mpathh is marked in use but no VG was found using it.
WARNING: PV /dev/mapper/mpathh might need repairing.
WARNING: PV /dev/mapper/mpathe is marked in use but no VG was found using it.
WARNING: PV /dev/mapper/mpathe might need repairing.
PV VG Fmt Attr PSize PFree
/dev/mapper/mpathe [unknown] lvm2 u– 2.25t 0
/dev/mapper/mpathf [unknown] lvm2 u– 2.25t 0
/dev/mapper/mpathg [unknown] lvm2 u– 2.25t 0
/dev/mapper/mpathh [unknown] lvm2 u– 2.25t 0
[unknown] vg1PDMs lvm2 a-m <4.30t 0
[unknown] vg1PDMs lvm2 a-m <4.30t 0
[unknown] vg1PDMs lvm2 a-m <4.30t 0
[unknown] vg1PDMs lvm2 a-m <4.30t 0
Parte do comandolsblk
sdcd 4.3T 0 disk
└─mpathh 4.3T 0 mpath
sdbw 4.3T 0 disk
└─mpathe 4.3T 0 mpath
Por favor, diga-me como devolver discos perdidos ao VG sem perda de dados?
Essa é a sensação: que lixo nos metadados. Esta é a primeira vez que encontro isso.
PS-1. Informações de /etc/lvm/backup
pv0 {
id = "eLMcjf-O3Xz-1kcl-ugF4-7h2T-Ucgf-caNhKk"
device = "/dev/mapper/mpathy"
pv1 {
id = "mvH0q0-gzwW-HJG1-qxtD-aa2B-xKxW-XLHUtw"
device = "/dev/mapper/mpathv"
pv2 {
id = "vVNap3-bzCi-w2ia-bHYd-TMSf-yr3f-0uHxW2"
device = "/dev/mapper/mpathw"
pv3 {
id = "vRgMgL-oAIh-biR7-wvCf-cBNT-L3su-n7Wfsh"
device = "/dev/mapper/mpathx"
Encontrei informações sobre ligações de nome e wwn em /etc/multipath/bindings
mpathe 36742b0f000000be200000000000652a1
mpathf 36742b0f000000be200000000000652a7
mpathg 36742b0f000000be200000000000652a5
mpathh 36742b0f000000be200000000000652a3
E eu encontro encadernações antigas
mpathv 36742b0f000000be200000000000652a3
mpathw 36742b0f000000be200000000000652a1
mpathx 36742b0f000000be200000000000652a5
mpathy 36742b0f000000be200000000000652a7
Agora tenho informações que podem ser comparadas, certo?
Solução
pvcreate --restorefile /etc/lvm/backup/vg1PDMs --uuid eLMcjf-O3Xz-1kcl-ugF4-7h2T-Ucgf-caNhKk -ff /dev/mapper/mpathf
pvcreate --restorefile /etc/lvm/backup/vg1PDMs --uuid mvH0q0-gzwW-HJG1-qxtD-aa2B-xKxW-XLHUtw -ff /dev/mapper/mpathh
pvcreate --restorefile /etc/lvm/backup/vg1PDMs --uuid vVNap3-bzCi-w2ia-bHYd-TMSf-yr3f-0uHxW2 -ff /dev/mapper/mpathe
pvcreate --restorefile /etc/lvm/backup/vg1PDMs --uuid vRgMgL-oAIh-biR7-wvCf-cBNT-L3su-n7Wfsh -ff /dev/mapper/mpathg
Então vgchange -ay vg1PDMs e monte. Verifique se o fs está ok.
Muito obrigado telcom
Os nomes dos PV
/dev/mapper/mpath*
sugerem que você está usando multipathing do mapeador de dispositivos, o que por sua vez sugere que você está em algum tipo de ambiente SAN. Você também mencionouvgimportclone
o que sugere que você está fazendo algum tipo de snapshot ou clonagem no nível da SAN. Estou certo?Em caso afirmativo, use
multipath -ll
para verificar a identidade (geralmente WWID) de cada PV e descobrir quais deles são realmente os originais e quais são clones/instantâneos. Verifique se sua ideia corresponde à configuração SAN real.Então, se possível, remova temporariamente os clones/instantâneos da visualização do sistema - isso deve ajudá-lo a escolher os discos corretos e pode permitir que o sistema detecte automaticamente o grupo de volumes LVM.
Em seguida, execute
vgscan -vvv
, para ver se isso é suficiente para consertar as coisas.Caso contrário, talvez seja necessário restaurar as identidades (UUIDs de PV) dos PVs. Se alguém cometeu um erro com
vgimportclone
, isso é provável. Lembre-se de que existem backups da configuração atual do VG/etc/lvm/backup/
e de algumas versões anteriores no/etc/lvm/archive/
. Os arquivos de backup são arquivos de texto legíveis por humanos: você pode lê-los para descobrir qual disco (ou dispositivo mpath) possui qual PV UUID e, em seguida, reatribuí-los corretamente. Mas você deve ter muito cuidado.Para fazer isso, use
pvcreate --restorefile <backupfile.vg> --uuid <PV UUID> /dev/mapper/mpathX
para ajustar o PV UUID de um disco. Depois que todos os PVs pertencentes ao VG tiverem seus UUIDs de PV corretos, usevgcfgrestore --file <backupfile.vg>
para restaurar o restante da configuração do VG. Se for bem-sucedido, você poderá ativar o VG comvgchange -ay vg1PDMs
. Se você atribuiu os UUIDs corretos aos discos corretos, os dados não serão danificados.Depois de colocar os originais em um estado de funcionamento estável, você pode seguir o mesmo procedimento com os instantâneos/clones... ou apenas recriar o instantâneo/clone no nível SAN, pois isso pode ser mais rápido e direto.
Se você precisar apresentar o snapshot/clone de volta ao mesmo sistema que possui o VG original, você deverá usar a
vgimportclone
primeira coisa após apresentar o snapshot/clone , antes de fazer qualquer outra coisa. E você deve especificar explicitamente o conjunto completo de PVs duplicados (e nenhum dos originais) para esse comando, caso contrário, ocorrerá confusão.