我正在探索更有效地利用我们的主存储的选项。
我们当前的 NAS 是带有 HP Storageworks MSA20 的 HP ProLiant DL380 G5,以及另一个我不确定它是什么的磁盘架。
我们的绝大多数文件都是 PDF 文件(数以亿计),具有高度的相似性。
在George Crump 的专家意见(引用自Data Domain的Dedupe Central)中,在粒度部分中,他说:“要有效地重复数据删除,需要在子文件级别使用可变长度段完成。”
这很难找到,但正是我需要的。大多数重复数据删除选项似乎都是基于块的,这对于最大限度地减少备份占用的空间非常有效,因为只有更改的块会被存储,但是基于块的技术不会在我们的块内找到位于不同偏移量的相同段PDF。
前几天我遇到了Ocarina Networks,它看起来正是我们所需要的。
Storage Switzerland 的实验室报告概述 - 主存储的重复数据删除将 Ocarina Networks 和NetApp比作“主存储重复数据删除领域的两个领导者”。
理想情况下,我们希望继续使用我们当前的 NAS,但效率更高。
我遇到的另一个解决方案是Storwize,它似乎执行单个文件的内联压缩,并与重复数据删除解决方案集成。
还有哪些其他解决方案和信息资源?