我有一个相当普通的 Ubuntu 机器(Jaunty)作为小型网络服务器运行。每天晚上我都有一个 cron 作业,其中 tar/gzip 的重要目录并执行简单的 cp 将它们复制到已在本地安装 SMB 的备份 NAS 驱动器(实际上是“异地”备份)
盒子的网络连接是 802.11G (54Mbps) 所以自然很慢,但问题是当文件被复制时,网络服务器和路由器之间的无线带宽被复制过程完全饱和,并且 web-请求要么被拒绝,要么响应缓慢。
我尝试在独立模式下使用 Trickle 来限制复制过程,但这似乎没有任何区别。
有人有什么建议或建议吗?我怀疑我需要在服务器上运行某种形式的 QoS,但确实有 NFI。希望有一个简单的银弹解决方案;)
谢谢,薛西斯
有一个
wput
实用程序与更知名的wget
.它可用于以受控速率上传文件。
关于涓涓细流,
如果可能,请使用 rsync。现在大多数 NAS 都提供 rsync 服务,它比 smb 共享更安全,它可以让你精确地限制带宽。此外,它只会传输文件之间的差异,而不是每次都传输所有内容。
也许不理想,但也许您可以将 tar 拆分为较小的文件块,并让您的脚本在循环底部休眠并遍历它们?