背景故事:
- 服务器正在运行 Ubuntu 14.04。
- 我们希望将 Apache 文档根目录中的所有内容下载并放在外部硬盘驱动器上,因为我们正在对网站进行彻底的重新设计。(67 Gb 数据)。
- 第一次下载是使用 FTP 进行的,但一些文件最终被损坏或完全丢失。我们发现了艰难的道路。
我正在计划这个行动方案:
- 首先将整个文档根目录压缩到一个大文件中(使用 tar)。
- 计算一个大文件的校验和(使用 cksum)。
- 使用 SSH/SCP 下载大文件。
- 验证接收文件的校验和。
服务器当前正在运行,我主要担心的是压缩或校验和计算等密集进程会使服务器不堪重负,从而导致 Apache 挂起或崩溃。这样的担心有道理吗?我能做些什么来确保不会发生这种情况?