在尝试编译 gcc 时,我一直在用完磁盘空间,我继续创建越来越大的磁盘大小,经过 5 个小时的编译,它的磁盘空间用完了。我现在已经调整了 4 次磁盘大小,现在用 500GB 磁盘重新启动了第 4 次编译步骤。
当我跑去df -h
查看使用了多少空间时,它只显示 9.7GB,但这被认为是 100%。
我以为可能有另一个磁盘,但我只看到sda
它的分区
ls /dev/sd*
/dev/sda /dev/sda1
那么我的磁盘实际上是 500GB 大小并且df
只是报告错误(在这种情况下,编译 gcc 会占用整个 500GB)还是 Google Cloud 的仪表板报告错误,df
报告正确并且编译 gcc 不会占用 500GB?
无论哪种方式,除非我应该做些什么来利用 500GB(顺便说一句,这是违反直觉的),我猜这是一个错误?
(发帖前搜索过,只看到AWS相关的问题)
更新 - lsblk 解释它:
lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 500G 0 disk
└─sda1 8:1 0 10G 0 part /
Google Compute Engine 似乎确实在大多数操作系统上提供了根分区的自动调整大小(我通常使用 Debian,所以从来没有遇到过这样的问题),CentOS 似乎不是其中之一。
请参阅: https ://cloud.google.com/compute/docs/disks/persistent-disks#repartitionrootpd
在我的情况下,需要手动重新分区,请参阅: https ://cloud.google.com/compute/docs/disks/persistent-disks#manualrepartition
完成这些步骤后,我的磁盘大小现在是 500GB
以下是您拥有单个 xfs (/dev/sda1) 分区的步骤。
在尝试之前不要忘记制作快照!
首先重新创建根分区,输入以下命令:
然后重启你的服务器。重新启动后,扩大您的分区
验证: