我用谷歌搜索过,到目前为止我发现的最接近的是另一个 SF 问题:Azure 存储限制
目标:
将大约 50TB 的存储移动到云中,将该存储作为标准 Windows 文件共享呈现,并随着它的持续增长相对轻松地扩展它。
问题:
看来单个 VHD 的大小只能是 1TB,这显然不好。
我不认为这里的任何人都有他们可以提供的解决方案?
感谢您的阅读,
泽维尔。
我用谷歌搜索过,到目前为止我发现的最接近的是另一个 SF 问题:Azure 存储限制
目标:
将大约 50TB 的存储移动到云中,将该存储作为标准 Windows 文件共享呈现,并随着它的持续增长相对轻松地扩展它。
问题:
看来单个 VHD 的大小只能是 1TB,这显然不好。
我不认为这里的任何人都有他们可以提供的解决方案?
感谢您的阅读,
泽维尔。
尝试调查 Microsoft DFS 命名空间并开始在 Azure 中分离数据 - 我已经完成了一个类似的项目。在哪里添加一个小的单独 VHD,然后在第一个驱动器下安装更多 1TB VHD 作为安装点,例如
100GB 磁盘挂载为 D:
然后第 N 个 1TB VHD 将安装在 D:\Disk1 ... D:\Disk50 下,然后使用 DFS 命名空间,您可以共享数据,例如 \DOMAIN\SHARES\Finance 将映射到 \NEWFILESERVER\DISK43$\Finance 等。
不是最理想的,但可以在 Azure 的当前技术限制内工作。
我希望我的解释足以让您开始 - 如果您需要更多帮助,请随时与我们联系。
祝你上传 50TB 的数据好运,如果将这些数据存储在 Azure 中比将其存储在办公室中但增加 WAN/Internet 链接更具成本效益,那么可能值得考虑。也就是说,您不必担心新硬件等。我想,上述解决方案可以很好地扩展。
Azure 文件服务可能对你有用。此外,正如 HBrijn 上面所指出的,1TB 远远超过您正在寻找的 50GB。
Azure 文件存储服务允许您创建最大为 5TB 的文件共享,每个文件最大为 1TB。这实际上是一个具有底层 REST API 的 SMB 卷。你可以从 Azure 资源和本地资源访问此共享。
由于您处理的是 50TB,因此您需要创建多个文件服务卷。Azure 存储支持每个存储帐户最多 500TB,但不支持单个文件共享。您可以将文件上传到离散的 blob 中,允许您访问完整的 500TB,但这不会提供 SMB 接口;相反,您必须依赖您选择的特定于语言的 sdk(.net、java、python、node、ruby、php)或直接 REST 调用来处理这些离散对象。
至于将内容移动到云中,您可以使用自己的应用程序(一旦连接到文件共享)或使用 AzCopy 等工具,该工具现在支持将文件服务作为源/目标。请参阅这篇文章,其中提到了 AzCopy 以及如何使用它来传输到文件服务。