wb9688 Asked: 2015-06-04 11:46:20 +0800 CST2015-06-04 11:46:20 +0800 CST 2015-06-04 11:46:20 +0800 CST 如何使用 BTRFS 删除重复数据? 772 我在我的 EEE PC 701 上安装了 Lubuntu 15.04,文件系统为 BTRFS。我想对我的数据进行重复数据删除,但我不知道该怎么做。 btrfs 2 个回答 Voted Best Answer Elder Geek 2015-06-04T12:19:47+08:002015-06-04T12:19:47+08:00 首先进行完整备份,这样即使出现问题,您也不会丢失任何东西。 我相信你正在寻找duperemove -d “Duperemove 是一个简单的工具,用于查找重复的范围并将它们提交以进行重复数据删除。当给定一个文件列表时,它将逐块散列它们的内容并将这些散列相互比较,找到彼此匹配的范围并将其分类。当给定 -d 选项时,duperemove 将使用 btrfs-extent-same ioctl 提交这些范围以进行重复数据删除。 Duperemove 有两种主要的操作模式,其中一种是另一种的子集。 只读/非重复数据删除模式 当在没有 -d(默认)的情况下运行时,duperemove 将打印出一个或多个匹配范围的表,它已确定是重复数据删除的理想候选者。因此,只读模式对于查看使用“-d”运行时 duperemove 可能执行的操作非常有用。输出也可以被一些其他软件用来在以后提交重复数据删除的范围。 重要的是要注意,此模式不会打印出匹配范围的所有实例,而只会打印出它会考虑进行重复数据删除的那些实例。 通常,duperemove 不关心它处理的范围的底层表示。其中一些可以被压缩、进行 I/O,甚至已经被删除重复数据。在重复数据删除模式下,内核会处理这些细节,因此我们尽量不重复该工作。 去重模式 这个功能类似于只读模式,不同之处在于在我们的“读取、散列和比较”步骤中发现的重复范围实际上将被提交以进行重复数据删除。操作完成后,将打印对已删除重复数据的总数据的估计。该估计值是通过比较重复数据删除前后每个文件中的共享字节总量计算得出的。 有关运行 duperemove 的更多详细信息,请参阅 duperemove 手册页。” 这似乎没有出现在 btrfs-tools 包中,但这里有一个 git hub 页面。最近打开和关闭的问题(又名脉冲)可在此处获得。 可以在此 PPA中找到所有当前支持的 Ubuntu 版本的软件包 我必须重申,强烈建议备份。请参阅:https ://github.com/markfasheh/duperemove/issues/50 引用来源:https ://github.com/markfasheh/duperemove 手册页:https ://manpages.debian.org/testing/duperemove/duperemove.8.en.html Adam Ryczkowski 2015-12-02T02:24:21+08:002015-12-02T02:24:21+08:00 我总是使用bedup。它非常快速和可靠。官方 btrfs 页面上也提到了这个工具。我从未使用过 duperemove(bedup 比较旧)。
首先进行完整备份,这样即使出现问题,您也不会丢失任何东西。
我相信你正在寻找
duperemove -d
“Duperemove 是一个简单的工具,用于查找重复的范围并将它们提交以进行重复数据删除。当给定一个文件列表时,它将逐块散列它们的内容并将这些散列相互比较,找到彼此匹配的范围并将其分类。当给定 -d 选项时,duperemove 将使用 btrfs-extent-same ioctl 提交这些范围以进行重复数据删除。
Duperemove 有两种主要的操作模式,其中一种是另一种的子集。
只读/非重复数据删除模式
当在没有 -d(默认)的情况下运行时,duperemove 将打印出一个或多个匹配范围的表,它已确定是重复数据删除的理想候选者。因此,只读模式对于查看使用“-d”运行时 duperemove 可能执行的操作非常有用。输出也可以被一些其他软件用来在以后提交重复数据删除的范围。
重要的是要注意,此模式不会打印出匹配范围的所有实例,而只会打印出它会考虑进行重复数据删除的那些实例。
通常,duperemove 不关心它处理的范围的底层表示。其中一些可以被压缩、进行 I/O,甚至已经被删除重复数据。在重复数据删除模式下,内核会处理这些细节,因此我们尽量不重复该工作。
去重模式
这个功能类似于只读模式,不同之处在于在我们的“读取、散列和比较”步骤中发现的重复范围实际上将被提交以进行重复数据删除。操作完成后,将打印对已删除重复数据的总数据的估计。该估计值是通过比较重复数据删除前后每个文件中的共享字节总量计算得出的。
有关运行 duperemove 的更多详细信息,请参阅 duperemove 手册页。”
这似乎没有出现在 btrfs-tools 包中,但这里有一个 git hub 页面。最近打开和关闭的问题(又名脉冲)可在此处获得。
可以在此 PPA中找到所有当前支持的 Ubuntu 版本的软件包
我必须重申,强烈建议备份。请参阅:https ://github.com/markfasheh/duperemove/issues/50
引用来源:https ://github.com/markfasheh/duperemove
手册页:https ://manpages.debian.org/testing/duperemove/duperemove.8.en.html
我总是使用bedup。它非常快速和可靠。官方 btrfs 页面上也提到了这个工具。我从未使用过 duperemove(bedup 比较旧)。