我有大约 6 TB 的文件需要从一台服务器移动到另一台服务器。我尽我所能通过 FTP 移动它,如下所示,但连接中断了很多,并且经过一定程度的进展后,它甚至在恢复移动文件之前断开连接,我认为在实际传输和计时之前比较文件需要太长时间出去。
~/ncftp-3.2.3/bin/ncftpput -R -z -v -u "user" -p "password" upload.server.net /local/dir/ remote/dir/
我正在尝试让远程服务器让我通过 SSH 访问,这样我就可以设置一个 rsync,但是我可以通过 ftp 做些什么更稳定的事情,所以它可能会自行尝试恢复而不重新比较整个文件清单?
如果您唯一的访问是通过 FTP,您可能需要查看lftp(应该在大多数发行版中)。
lftp 支持失败时自动重试,并且还有一个镜像选项,听起来它与您想要做的事情相匹配。
我会使用rsync。如果连接断开,它会比较源和目标并从它离开的位置同步(假设大量的中小型文件,而不是 2 x 3 TB :))。
或者启动 apache 并使您的文件 dir root 并执行递归 wget,可能也可以,您只需要告诉它忽略本地已经存在的文件。
你没有说这个项目的界限是什么。在我的情况下,我自己会通过从源备份数据并使用我的备份软件将其恢复到目标来做到这一点。
如果你不能做这样的事情,那么为什么不尝试“批量”移动数据,如果可能的话,如果数据被分成许多文件或目录?