我正在寻求将 200+ GB 的存档上传到 Amazon Glacier——单个.tgz
.
想知道是否有人有过这方面的经验,以及在没有超时问题的情况下完成这是否看起来非同寻常。一方面,200 GB 是大量数据。另一方面,Glacier 似乎是为处理此类需求而构建的。
我打算使用 Pythonboto
库。其他人有什么建议吗?
我正在寻求将 200+ GB 的存档上传到 Amazon Glacier——单个.tgz
.
想知道是否有人有过这方面的经验,以及在没有超时问题的情况下完成这是否看起来非同寻常。一方面,200 GB 是大量数据。另一方面,Glacier 似乎是为处理此类需求而构建的。
我打算使用 Pythonboto
库。其他人有什么建议吗?
正如其他人所说,Glacier 能够处理 200GB 的数据。
(坦率地说,就大数据而言, 200GB 不算什么——我每个月都会定期移动这个大小的备份。)
需要注意的两件事是评论中提到的上游连接限制,以及您需要取回这些数据(Glacier 的存储成本非常低,但检索成本非常高)。
如果您不会因这些问题中的任何一个而受到阻碍(并且对Glacier 书籍/文档的审查不会为您的计划部署揭示任何其他问题点),您应该没问题。