我正在对 Server 2012 R2 存储空间进行重复数据删除试验。昨晚我让它运行了第一次重复数据删除优化,我很高兴看到它声称减少了 340GB。
然而,我知道这太好了,不可能是真的。在该驱动器上,100% 的重复数据删除来自 SQL Server 备份:
考虑到文件夹中有 20 倍大小的数据库备份,这似乎不切实际。举个例子:
它估计一个 13.3GB 的备份文件已被删除为 0 字节。当然,当我对其进行测试还原时,该文件实际上并不能正常工作。
雪上加霜的是,该驱动器上还有另一个文件夹,其中包含近 TB 的数据,应该进行大量重复数据删除,但没有。
Server 2012 R2 重复数据删除是否有效?
重复数据删除确实有效。
使用重复数据删除,磁盘字段的大小变得毫无意义。这些文件不再是通常的“文件”,而是重新解析点,并且不包含实际数据,而是用于去重引擎重建文件的元数据。我的理解是,您无法节省每个文件,因为 dedup 块存储是每个卷的,因此您只能获得每个卷的节省。 http://msdn.microsoft.com/en-us/library/hh769303(v=vs.85).aspx
如果还没有对其他一些数据进行重复数据删除,那么您的重复数据删除工作可能还没有完成。它不是超快的,默认情况下是有时间限制的,并且可能会受到资源限制,具体取决于您的硬件。从服务器管理器检查去重计划。
我已经在不同场景(SCCM DP、不同部署系统、通用文件服务器、用户主文件夹文件服务器等)的多个系统(Windows 2012 R2)上部署了 dedup 大约一年了。只要确保您已完全修补,我记得自 RTM 以来有几个重复数据删除功能(累积更新和修补程序)的补丁。
但是存在一些问题,一些系统无法直接从本地系统中的优化文件中读取数据(IIS,在某些情况下为 SCCM)。正如 yagmoth555 所建议的那样,您应该尝试 Expand-DedupFile 取消优化它,或者只是制作文件的副本(目标文件将在下一次优化运行之前未优化)并重试。 http://blogs.technet.com/b/configmgrteam/archive/2014/02/18/configuration-manager-distribution-points-and-windows-server-2012-data-deduplication.aspx https://kickthatcomputer.wordpress .com/2013/12/22/no-input-file-specified-windows-server-2012-dedupe-on-iis-with-php/
如果您的 SQL 备份实际上已损坏,我相信这是因为另一个问题,而不是与重复数据删除技术相关。
看起来我可能已经过激了,说这种重复数据删除是不可能的。显然,这是完全可能的,因为除了这些未压缩的 SQL Server 备份之外,我还有主机 VM 的 VMWare 快照级备份。
正如 yagmoth555 建议的那样,我
Expand-DedupeFile
在其中一些 0 字节文件上运行了一个,最后我得到了一个完全可用的文件。然后,我查看了我的测试方法,以确定我是如何确定文件不好的,并且我在测试中发现了一个缺陷(权限!)。
我还在十六进制编辑器中打开了一个 0 字节的重复数据备份文件,一切看起来都不错。
所以我调整了我的测试方法,一切似乎都奏效了。当我离开它时,重复数据删除实际上变得更好了,由于重复数据删除,我现在节省了超过 1.5TB 的空间。
在将其投入生产之前,我将对其进行更彻底的测试,但现在它看起来很有希望。
是的,但我只看到了 hyperv 集群 db 重复数据删除的情况。4tb 到 400g,VM 正在运行。操作系统已完全修补。
对于您的 sql 备份文件,它是您可以在其中读取的转储吗?我会检查内容。对于那部分,我无法回答它是如何删除 ascii 文件的。