Tenho uma configuração com um volume lógico lvvm dentro de um grupo de volume vgsata. O lvvm foi criado com a opção thin -T:
sudo lvcreate -L 925G -T vgsata/lvvm
lsblk
...
sdc 8:32 0 931,5G 0 disk
└─sdc1 8:33 0 931,5G 0 part
├─vgsata-lvvm_tmeta 252:0 0 116M 0 lvm
│ └─vgsata-lvvm 252:2 0 925G 0 lvm
└─vgsata-lvvm_tdata 252:1 0 925G 0 lvm
└─vgsata-lvvm 252:2 0 925G 0 lvm
Quando o sistema é iniciado, posso montar o volume pelo terminal sem problemas:
sudo mount /dev/vgsata/lvvm /VM
Mas quando tento fazer isso com o fstab, adicionando a linha
/dev/mapper/vgsata-lvvm /VM ext4 defaults 0 2
O processo de inicialização agora leva 1-2 minutos a mais sem montar o volume. Em boot.log
encontro alguns problemas relacionados a timeout:
[ TIME ] Timed out waiting for device dev-m…m.device - /dev/mapper/vgsata-lvvm.
[DEPEND] Dependency failed for systemd-fsck…m Check on /dev/mapper/vgsata-lvvm.
[DEPEND] Dependency failed for VM.mount - /VM.
[DEPEND] Dependency failed for local-fs.target - Local File Systems.
Também tentei usar UUIDs, mas, apesar de essa não parecer ser a maneira recomendada para LVM, o problema não foi resolvido.
Então qual seria a melhor maneira de montar um volume lógico durante o boot? Ou eu cometi um erro ao criar o volume fino?
Com LVs finos , aparentemente deve haver primeiro um LV de pool fino que será o local de armazenamento de um ou mais LVs finos, que podem então "sobrecarregar" o armazenamento do pool fino. Para mim, parece que apenas o LV de pool fino pode ter sido criado e o LV fino real pode estar faltando: eu gostaria de verificar novamente os atributos do(s) LV(s) no grupo de volume.
Por favor, execute
sudo lvs -o+lv_when_full
e adicione a saída ao seu post inicial. A saída desudo lvdisplay /dev/vgsata/lvvm
pode ser útil também.Não sei por que a montagem manual funciona: talvez haja um arquivo grande que
/dev/vgsata/lvvm
esteja agindo como uma imagem do sistema de arquivos? Ou talvez o espaço de armazenamento físico disponível para o LV fino esteja agora 100% cheio?