AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / ubuntu / 问题

问题[lvm](ubuntu)

Martin Hope
Penbrock
Asked: 2023-10-15 06:54:09 +0800 CST

需要扩展 LVM 卷的帮助

  • 5

我正在尝试在虚拟主机上扩展我的lvm/空间。我在 XCP-ng 中将其从 20g 扩展到 100g。我可以看到磁盘上的新空间

NAME                      MAJ:MIN RM  SIZE RO TYPE MOUNTPOINTS
loop0                       7:0    0 63.3M  1 loop /snap/core20/1828
loop1                       7:1    0 63.5M  1 loop /snap/core20/2015
loop2                       7:2    0 91.8M  1 loop /snap/lxd/24061
loop3                       7:3    0 49.8M  1 loop /snap/snapd/18357
loop4                       7:4    0 40.8M  1 loop /snap/snapd/20092
sr0                        11:0    1 1024M  0 rom
xvda                      202:0    0  100G  0 disk
├─xvda1                   202:1    0    1M  0 part
├─xvda2                   202:2    0  1.8G  0 part /boot
└─xvda3                   202:3    0 18.2G  0 part
  └─ubuntu--vg-ubuntu--lv 253:0    0   10G  0 lvm  /

我尝试过不同的 lvextend -l +100%FREE xxx 但没有成功。resize2fs 没有给我带来好运。我在某个地方遗漏了一步,有好心人可以帮助我吗?


sudo pvs输出:

PV         VG        Fmt  Attr PSize  PFree
/dev/xvda3 ubuntu-vg lvm2 a--  18.22g 8.22g

我想我最终将空间移至 xvda3 而不是 LVM

root@Plex:/home/penbrock# lsblk /dev/xvda
NAME                      MAJ:MIN RM  SIZE RO TYPE MOUNTPOINTS
xvda                      202:0    0  100G  0 disk
├─xvda1                   202:1    0    1M  0 part
├─xvda2                   202:2    0  1.8G  0 part /boot
└─xvda3                   202:3    0 98.2G  0 part
  └─ubuntu--vg-ubuntu--lv 253:0    0   10G  0 lvm  /
lvm
  • 1 个回答
  • 27 Views
Martin Hope
zoldseges
Asked: 2022-05-27 06:51:31 +0800 CST

下载大文件时lvm存储已满,无法释放空间[重复]

  • 0
这个问题在这里已经有了答案:
df -h - 已用空间 + 可用可用空间小于 /home 的总大小 3 个答案
3 个月前关闭。

我开始将 torrent 下载到 lvm 存储。文件比存储空间大,所以我通过传输界面删除了它,然后我清空了“垃圾箱”。现在这是 df -h 的输出

Filesystem                 Size  Used Avail Use% Mounted on
/dev/mapper/vgubuntu-root  198G  187G  219M 100% /

如您所见,应该有大约 10G 的可用空间(大小 198G,已用 187G),但可用存储空间只有 219M。我猜我在下载之前删除了 torrent 时出现了一些损坏。

种子大小为 30G。


在某处我发现我应该检查打开的文件。如果这是问题,我想重启应该可以解决问题,但我仍然检查了我在互联网上找到的东西。

  • 输出中最大的文件lsof +L1
pulseaudi 1613 adam    6u   REG    0,1 67108864     0    2050 /memfd:pulseaudio (deleted)

我猜pulseaudio不应该参与这个问题,即使是这样,如果大小以字节为单位,情况也不会如此。

lvm
  • 2 个回答
  • 24 Views
Martin Hope
Niclas Börlin
Asked: 2020-12-15 00:59:59 +0800 CST

在具有 UEFI BIOS 的机器上安装具有 RAID 1 和 LVM 的 Ubuntu 20.04 桌面

  • 2

我有一台带有 UEFI BIOS 的机器。我想在 RAID 1 上安装带有 LVM 的 Ubuntu 20.04 桌面,因此即使其中一个驱动器发生故障,我的系统也将继续工作。我还没有找到一个HOWTO。20.04 桌面安装程序支持 LVM 但不支持 RAID。这个问题的答案描述了 18.04 的过程。但是,20.04 不提供备用服务器安装程序。这个问题和这个问题的答案描述了 RAID 但不是 LVM 或 UEFI。有没有人有一个适用于 20.04 的进程,在 UEFI 机器的 RAID 1 之上使用 LVM?

system-installation lvm raid uefi 20.04
  • 2 个回答
  • 9608 Views
Martin Hope
JarsOfJam-Scheduler
Asked: 2020-12-13 01:35:27 +0800 CST

警告:VG ubuntu-vg 中的 PV /dev/sda3 正在使用旧的 PV 标头,修改 VG 以更新

  • 52

当我这样做时sudo apt-get upgrade,我收到以下消息:

 WARNING: PV /dev/sda3 in VG ubuntu-vg is using an old PV header,
 modify the VG to update.

我能做些什么?

apt lvm 20.04
  • 1 个回答
  • 26779 Views
Martin Hope
robertspierre
Asked: 2020-12-10 08:11:51 +0800 CST

全盘加密:我有什么密码,它有 NSA 后门吗?

  • 0

我已经安装了 Kubuntu 20.10。我选择了带全盘加密的 LVM。

  1. 我不明白我有什么密码。我有 AES-256 吗?安装向导没有让我选择密码。

  2. 我如何确定加密算法没有内置 NSA 后门?

encryption security partitioning lvm
  • 1 个回答
  • 168 Views
Martin Hope
Thayne
Asked: 2020-12-08 09:50:09 +0800 CST

Ubuntu Server Install 仅使用一半可用空间用于根分区

  • 7

使用 20.04 Ubuntu 服务器安装介质进行安装时,使用 LVM(并启用加密),使用默认的全盘设置。安装只为根文件系统的逻辑卷分配一半的可用空间。

这是来自 VM 的屏幕截图,虽然这也发生在物理硬件上:

显示 LV 的安装屏幕仅使用一半的可用空间

为什么会这样,有没有办法让我默认使用完整磁盘(例如使用 cloudinit 配置)。

system-installation server partitioning lvm
  • 1 个回答
  • 2646 Views
Martin Hope
Aztek
Asked: 2020-11-30 01:42:25 +0800 CST

如何在 Ubuntu 20.04 LTS 上安装 KVPM?

  • 7

在一些关于调整 LV 大小的问题中阅读了对 KVPM 的引用。尝试了典型的sudo apt install kvpm,但它给了我一个信息unable to locate package。我已经检查了软件和更新上所有可用资源的复选框。然后我从http://archive.ubuntu.com/ubuntu/pool/universe/k/kvpm/kvpm_0.9.10-1.1_amd64.deb下载了一个 deb 包,得到以下错误:

The following packages have unmet dependencies:
 kvpm : Depends: liblvm2app2.2 (>= 2.02.176) but it is not installable
E: Unable to correct problems, you have held broken packages.
package-management lvm
  • 2 个回答
  • 5139 Views
Martin Hope
Guerlando OCs
Asked: 2020-11-16 23:17:26 +0800 CST

如何从 lvm Thinpool 中恢复一些文件(来自 Qubes OS)

  • 0

我在 Ubuntu 上安装了一个 LUKS 分区,其中包含来自 Qubes OS 的这些 lvm 容器:

ubuntu@ubuntu:~$ sudo lvs
  LV                                             VG         Attr       LSize    Pool   Origin                                         Data%  Meta%  Move Log Cpy%Sync Convert
  pool00                                         qubes_dom0 twi---tz-- <452.86g                                                                                              
  root                                           qubes_dom0 Vwi---tz-- <452.86g pool00                                                                                       
  swap                                           qubes_dom0 -wi-a-----    8.96g                                                                                              
  vm-anon-whonix-private                         qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-bitpay-private                              qubes_dom0 Vwi---tz--    2.00g pool00 vm-bitpay-private-1604634684-back                                                     
  vm-bitpay-private-1604634684-back              qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-debian-10-private                           qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-debian-10-root                              qubes_dom0 Vwi---tz--   10.00g pool00 vm-debian-10-root-1604634337-back                                                     
  vm-debian-10-root-1604634337-back              qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-debian-sys-net-private                      qubes_dom0 Vwi---tz--    2.00g pool00 vm-debian-sys-net-private-1600569197-back                                             
  vm-debian-sys-net-private-1600569197-back      qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-debian-temp-private                         qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-debian10-coding-private                     qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-debian10-coding-root                        qubes_dom0 Vwi---tz--   10.00g pool00 vm-debian10-coding-root-1604634103-back                                               
  vm-debian10-coding-root-1604634103-back        qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-default-mgmt-dvm-private                    qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-fedora-29-dvm-private                       qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-fedora-29-private                           qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-fedora-29-root                              qubes_dom0 Vwi---tz--   10.00g pool00 vm-fedora-29-root-1599172317-back                                                     
  vm-fedora-29-root-1599172317-back              qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-hacking-private                             qubes_dom0 Vwi---tz--   20.00g pool00 vm-hacking-private-1602069716-back                                                    
  vm-hacking-private-1602069716-back             qubes_dom0 Vwi---tz--   20.00g pool00                                                                                       
  vm-multipurpose-private                        qubes_dom0 Vwi---tz--   11.00g pool00 vm-multipurpose-private-1589207893-back                                               
  vm-multipurpose-private-1589207893-back        qubes_dom0 Vwi---tz--   11.00g pool00                                                                                       
  vm-orwell3-private                             qubes_dom0 Vwi---tz--  137.00g pool00 vm-orwell3-private-1602465727-back                                                    
  vm-orwell3-private-1602465727-back             qubes_dom0 Vwi---tz--  137.00g pool00                                                                                       
  vm-orwell4-private                             qubes_dom0 Vwi---tz--  117.23g pool00 vm-orwell4-private-1605439750-back                                                    
  vm-orwell4-private-1605439750-back             qubes_dom0 Vwi---tz--  117.23g pool00                                                                                       
  vm-orwell4-private-snap                        qubes_dom0 Vwi---tz--  117.23g pool00 vm-orwell4-private                                                                    
  vm-orwell4-root-snap                           qubes_dom0 Vwi---tz--   10.00g pool00 vm-debian10-coding-root                                                               
  vm-orwell4-volatile                            qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-pcb-design-private                          qubes_dom0 Vwi---tz--    2.00g pool00 vm-pcb-design-private-1598425853-back                                                 
  vm-pcb-design-private-1598425853-back          qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-sd-flasher-private                          qubes_dom0 Vwi---tz--   10.00g pool00 vm-sd-flasher-private-1596569587-back                                                 
  vm-sd-flasher-private-1596569587-back          qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-social2-private                             qubes_dom0 Vwi---tz--   21.00g pool00 vm-social2-private-1605439747-back                                                    
  vm-social2-private-1605439747-back             qubes_dom0 Vwi---tz--   21.00g pool00                                                                                       
  vm-social2-private-snap                        qubes_dom0 Vwi---tz--   21.00g pool00 vm-social2-private                                                                    
  vm-social2-root-snap                           qubes_dom0 Vwi---tz--   10.00g pool00 vm-debian-10-root                                                                     
  vm-social2-volatile                            qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-sys-firewall-private                        qubes_dom0 Vwi---tz--    2.00g pool00 vm-sys-firewall-private-1588756764-back                                               
  vm-sys-firewall-private-1588756764-back        qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-sys-firewall-private-snap                   qubes_dom0 Vwi---tz--    2.00g pool00 vm-sys-firewall-private                                                               
  vm-sys-firewall-root-snap                      qubes_dom0 Vwi---tz--   10.00g pool00 vm-fedora-29-root-1599172317-back                                                     
  vm-sys-net-private                             qubes_dom0 Vwi---tz--    2.00g pool00 vm-sys-net-private-1603850959-back                                                    
  vm-sys-net-private-1603850959-back             qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-sys-usb-private                             qubes_dom0 Vwi---tz--    2.00g pool00 vm-sys-usb-private-1605439744-back                                                    
  vm-sys-usb-private-1605439744-back             qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-sys-usb-private-snap                        qubes_dom0 Vwi---tz--    2.00g pool00 vm-sys-usb-private                                                                    
  vm-sys-usb-root-snap                           qubes_dom0 Vwi---tz--   10.00g pool00 vm-fedora-29-root                                                                     
  vm-sys-usb-volatile                            qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-sys-whonix-private                          qubes_dom0 Vwi---tz--    2.00g pool00 vm-sys-whonix-private-1598482831-back                                                 
  vm-sys-whonix-private-1598482831-back          qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-sysnet-debian10_2-private                   qubes_dom0 Vwi---tz--    2.00g pool00 vm-sysnet-debian10_2-private-1605439757-back                                          
  vm-sysnet-debian10_2-private-1605439757-back   qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-sysnet-debian10_2-private-snap              qubes_dom0 Vwi---tz--    2.00g pool00 vm-sysnet-debian10_2-private                                                          
  vm-sysnet-debian10_2-root                      qubes_dom0 Vwi---tz--   10.00g pool00 vm-sysnet-debian10_2-root-1605439757-back                                             
  vm-sysnet-debian10_2-root-1605439757-back      qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-sysnet-debian10_2-root-snap                 qubes_dom0 Vwi---tz--   10.00g pool00 vm-sysnet-debian10_2-root                                                             
  vm-sysnet-debian10_2-volatile                  qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-temp-private                                qubes_dom0 Vwi---tz--   10.00g pool00 vm-temp-private-1595675857-back                                                       
  vm-temp-private-1595675857-back                qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-unsafe_code-private                         qubes_dom0 Vwi---tz--   78.00g pool00 vm-unsafe_code-private-1605379428-back                                                
  vm-unsafe_code-private-1605379428-back         qubes_dom0 Vwi---tz--   78.00g pool00                                                                                       
  vm-whonix-gw-14-private                        qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-whonix-gw-14-root                           qubes_dom0 Vwi---tz--   10.00g pool00 vm-whonix-gw-14-root-1571185748-back                                                  
  vm-whonix-gw-14-root-1571185748-back           qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-whonix-ws-14-dvm-private                    qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-whonix-ws-14-private                        qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-whonix-ws-14-root                           qubes_dom0 Vwi---tz--   10.00g pool00 vm-whonix-ws-14-root-1571185609-back                                                  
  vm-whonix-ws-14-root-1571185609-back           qubes_dom0 Vwi---tz--   10.00g pool00                                                                                       
  vm-win10_unsafe_coding-private                 qubes_dom0 Vwi---tz--    2.00g pool00 vm-win10_unsafe_coding-private-1602769589-back                                        
  vm-win10_unsafe_coding-private-1602769589-back qubes_dom0 Vwi---tz--    2.00g pool00                                                                                       
  vm-win10_unsafe_coding-root                    qubes_dom0 Vwi---tz--   90.00g pool00 vm-win10_unsafe_coding-root-1602769589-back                                           
  vm-win10_unsafe_coding-root-1602769589-back    qubes_dom0 Vwi---tz--   90.00g pool00                                                                                       
  vm-zoom2-private                               qubes_dom0 Vwi---tz--    2.00g pool00 vm-zoom2-private-1599067205-back                                                      
  vm-zoom2-private-1599067205-back               qubes_dom0 Vwi---tz--    2.00g pool00 

出了点问题,我只想恢复 vm-orwell4-* 容器。至少从中复制一些文件。我对 lvm Thinpool 一无所知。

我试过了

sudo lvchange -ay -v qubes_dom0/vm-orwell4-private
  Activating logical volume qubes_dom0/vm-orwell4-private.
  activation/volume_list configuration setting not defined: Checking only host tags for qubes_dom0/vm-orwell4-private.
  Creating qubes_dom0-pool00_tmeta
  Loading table for qubes_dom0-pool00_tmeta (253:2).
  Resuming qubes_dom0-pool00_tmeta (253:2).
  Creating qubes_dom0-pool00_tdata
  Loading table for qubes_dom0-pool00_tdata (253:3).
  Resuming qubes_dom0-pool00_tdata (253:3).
  Executing: /usr/sbin/thin_check -q --clear-needs-check-flag /dev/mapper/qubes_dom0-pool00_tmeta
  /usr/sbin/thin_check failed: 1
  Check of pool qubes_dom0/pool00 failed (status:1). Manual repair required!
  Removing qubes_dom0-pool00_tdata (253:3)
  Removing qubes_dom0-pool00_tmeta (253:2)

也试过

ubuntu@ubuntu:~$ sudo vgchange -ay
  Check of pool qubes_dom0/pool00 failed (status:1). Manual repair required!
  1 logical volume(s) in volume group "qubes_dom0" now active

更新:

这是我在查看https://unix.stackexchange.com/questions/351921/lvm-how-to-recover-lvm-thin-pool-volume-after-failed-repair后尝试的输出

ubuntu@ubuntu:~$ sudo lvchange -an qubes_dom0 
ubuntu@ubuntu:~$ sudo lvchange -pr -ay qubes_dom0/pool00_tmeta
  Operation not permitted on hidden LV qubes_dom0/pool00_tmeta.
ubuntu@ubuntu:~$ sudo  lvs -a --units m | grep pool00_tmeta   lvs -a --units m | grep pool00_tmeta  ^C
ubuntu@ubuntu:~$ sudo  lvs -a --units m | grep pool00_tmeta  
  [pool00_tmeta]                                 qubes_dom0 ewi-------    116.00m                                                                                              
ubuntu@ubuntu:~$ sudo lvcreate -L 256M -n pool00R qubes_dom0
  Logical Volume "pool00R" already exists in volume group "qubes_dom0"
ubuntu@ubuntu:~$ sudo lvchange -ay qubes_dom0/poool00R    
  Failed to find logical volume "qubes_dom0/poool00R"
ubuntu@ubuntu:~$ sudo lvchange -ay qubes_dom0/poool00R
  Failed to find logical volume "qubes_dom0/poool00R"
ubuntu@ubuntu:~$ sudo thin_repair -i /dev/qubes_dom0/pool00_tmeta -o /dev/qubes_dom0/pool00R
Output file does not exist.
 
The output file should either be a block device,
or an existing file.  The file needs to be large
enough to hold the metadata.
ubuntu@ubuntu:~$ # what? /dev/qubes_dom0 does not even exist
ubuntu@ubuntu:~$ sudo thin_check /dev/qubes_dom0/pool00R
Couldn't stat path
ubuntu@ubuntu:~$ 
encryption partitioning lvm disk
  • 1 个回答
  • 507 Views
Martin Hope
walrii
Asked: 2020-11-16 16:33:53 +0800 CST

如何挂载全新的逻辑卷?

  • 2

全新的硬盘驱动器 (/dev/sdb)。没有关于它的数据(可以尝试大多数事情)。Ubuntu 20.04。由于我的主驱动器是 SSD,我决定创建一个新的卷组 hdd-vg。我创建了 VG、LV 和 PG,看似成功(见下文),但每当我尝试挂载它或将其放入 fstab 时,都会出现错误。是不是需要格式化什么的?

# mount /dev/mapper/hdd--vg-hdd--lv1 /mnt/hdd
mount: /mnt/hdd: wrong fs type, bad option, bad superblock on /dev/mapper/hdd--vg-hdd--lv1, missing codepage or helper program, or other error.

# mount /dev/hdd-vg/hdd-lv1 /mnt/hdd
mount: /mnt/hdd: wrong fs type, bad option, bad superblock on /dev/mapper/hdd--vg-hdd--lv1, missing codepage or helper program, or other error.

在下面的数据中,我经常排除系统上其他驱动器/逻辑的信息。

# fdisk -l
Disk /dev/sdb: 931.53 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: ST1000DM010-2EP1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

Disk /dev/mapper/ubuntu--vg-root: 236.102 GiB, 254472617984 bytes, 497016832 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/ubuntu--vg-swap_1: 976 MiB, 1023410176 bytes, 1998848 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/hdd--vg-hdd--lv1: 931.52 GiB, 1000203091968 bytes, 1953521664 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


# vgdisplay
  --- Volume group ---
  VG Name               hdd-vg
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  2
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               931.51 GiB
  PE Size               4.00 MiB
  Total PE              238467
  Alloc PE / Size       238467 / 931.51 GiB
  Free  PE / Size       0 / 0   
  VG UUID               M23YyM-NJQD-SkFS-Omat-5cxw-5Aeg-8hwzjm

# lvdisplay
  --- Logical volume ---
  LV Path                /dev/hdd-vg/hdd-lv1
  LV Name                hdd-lv1
  VG Name                hdd-vg
  LV UUID                ysuHKI-BYfZ-CcKF-3PGY-t66M-3CjW-jvcu9f
  LV Write Access        read/write
  LV Creation host, time brjarvis-desktop2, 2020-11-15 16:20:39 -0700
  LV Status              available
  # open                 0
  LV Size                931.51 GiB
  Current LE             238467
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:2

# pvdisplay
  --- Physical volume ---
  PV Name               /dev/sdb
  VG Name               hdd-vg
  PV Size               931.51 GiB / not usable 1.71 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              238467
  Free PE               0
  Allocated PE          238467
  PV UUID               T8IQyK-dk3H-JBrh-Oi1X-2ede-QWOs-JPqHeQ

# lvscan
  ACTIVE            '/dev/hdd-vg/hdd-lv1' [931.51 GiB] inherit
  ACTIVE            '/dev/ubuntu-vg/root' [<237.00 GiB] inherit
  ACTIVE            '/dev/ubuntu-vg/swap_1' [976.00 MiB] inherit

# ls /dev/mapper -l
total 0
crw------- 1 root root 10, 236 Nov 15 15:41 control
lrwxrwxrwx 1 root root       7 Nov 15 16:20 hdd--vg-hdd--lv1 -> ../dm-2
lrwxrwxrwx 1 root root       7 Nov 15 15:41 ubuntu--vg-root -> ../dm-0
lrwxrwxrwx 1 root root       7 Nov 15 15:41 ubuntu--vg-swap_1 -> ../dm-1

# ls /dev/hdd* -l
total 0
lrwxrwxrwx 1 root root 7 Nov 15 16:20 hdd-lv1 -> ../dm-2
mount lvm hard-drive 20.04
  • 1 个回答
  • 1114 Views
Martin Hope
Justin Hilton
Asked: 2020-10-20 06:14:37 +0800 CST

如何调整拙劣的分区?

  • 1

有一个带有一些时髦的默认分区设置的专用服务器,我似乎无法使用可用磁盘。

试图使 200GB 分区的大小等于 960GB 磁盘的大小。

root@jdcuser:~# df -h
Filesystem                         Size  Used Avail Use% Mounted on
udev                                16G     0   16G   0% /dev
tmpfs                              3.2G  251M  2.9G   8% /run
/dev/mapper/ubuntu--vg-ubuntu--lv  196G  196G     0 100% /
tmpfs                               16G     0   16G   0% /dev/shm
tmpfs                              5.0M     0  5.0M   0% /run/lock
tmpfs                               16G     0   16G   0% /sys/fs/cgroup
/dev/sda2                          976M  104M  806M  12% /boot
/dev/loop0                          30M   30M     0 100% /snap/snapd/8542
/dev/loop1                          55M   55M     0 100% /snap/core18/1880
/dev/loop2                          72M   72M     0 100% /snap/lxd/16099
tmpfs                              3.2G     0  3.2G   0% /run/user/0
/dev/loop3                          56M   56M     0 100% /snap/core18/1885
/dev/loop4                          31M   31M     0 100% /snap/snapd/9607
/dev/loop5                          71M   71M     0 100% /snap/lxd/16922
root@jdcuser:~# fdisk -l
Disk /dev/loop0: 29.9 MiB, 31334400 bytes, 61200 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop1: 54.98 MiB, 57626624 bytes, 112552 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop2: 71.28 MiB, 74735616 bytes, 145968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop3: 55.33 MiB, 58007552 bytes, 113296 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop4: 30.95 MiB, 32432128 bytes, 63344 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/loop5: 70.58 MiB, 73990144 bytes, 144512 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/sda: 953.89 GiB, 1024209543168 bytes, 2000409264 sectors
Disk model: TEAM T253X2001T 
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 4338853D-6405-4F81-ADFD-EE57B6DA7C74

Device       Start        End    Sectors   Size Type
/dev/sda1     2048       4095       2048     1M BIOS boot
/dev/sda2     4096    2101247    2097152     1G Linux filesystem
/dev/sda3  2101248 2000409230 1998307983 952.9G Linux filesystem


Disk /dev/mapper/ubuntu--vg-ubuntu--lv: 200 GiB, 214748364800 bytes, 419430400 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
root@jdcuser:~# resize2fs /dev/mapper/ubuntu--vg-ubuntu--lv 
resize2fs 1.45.5 (07-Jan-2020)
The filesystem is already 52428800 (4k) blocks long.  Nothing to do!

编辑:

这是输出sudo pvs; sudo vgs; sudo lvs

root@jdcuser:~# sudo pvs; sudo vgs; sudo lvs
  PV         VG        Fmt  Attr PSize   PFree  
  /dev/sda3  ubuntu-vg lvm2 a--  952.86g 752.86g
  /etc/lvm/archive: mkdir failed: No space left on device
  /etc/lvm/backup: mkdir failed: No space left on device
  VG        #PV #LV #SN Attr   VSize   VFree  
  ubuntu-vg   1   1   0 wz--n- 952.86g 752.86g
  LV        VG        Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  ubuntu-lv ubuntu-vg -wi-ao---- 200.00g 
partitioning lvm
  • 1 个回答
  • 101 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    如何运行 .sh 脚本?

    • 16 个回答
  • Marko Smith

    如何安装 .tar.gz(或 .tar.bz2)文件?

    • 14 个回答
  • Marko Smith

    如何列出所有已安装的软件包

    • 24 个回答
  • Marko Smith

    无法锁定管理目录 (/var/lib/dpkg/) 是另一个进程在使用它吗?

    • 25 个回答
  • Martin Hope
    Flimm 如何在没有 sudo 的情况下使用 docker? 2014-06-07 00:17:43 +0800 CST
  • Martin Hope
    Ivan 如何列出所有已安装的软件包 2010-12-17 18:08:49 +0800 CST
  • Martin Hope
    La Ode Adam Saputra 无法锁定管理目录 (/var/lib/dpkg/) 是另一个进程在使用它吗? 2010-11-30 18:12:48 +0800 CST
  • Martin Hope
    David Barry 如何从命令行确定目录(文件夹)的总大小? 2010-08-06 10:20:23 +0800 CST
  • Martin Hope
    jfoucher “以下软件包已被保留:”为什么以及如何解决? 2010-08-01 13:59:22 +0800 CST
  • Martin Hope
    David Ashford 如何删除 PPA? 2010-07-30 01:09:42 +0800 CST

热门标签

10.10 10.04 gnome networking server command-line package-management software-recommendation sound xorg

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve