Tenho diretórios com backups incrementais antigos e eles estão cheios de cópias redundantes de vários arquivos. Meu plano era usar o ZFS que lida com somas de verificação de arquivos e evita redundância.
Portanto, uma situação modelo:
cd /poolname/zalohy
zfs list -p poolname
NAME USED AVAIL REFER MOUNTPOINT
poolname 995328 374734901248 98304 /poolname
for i in {0..10}; do echo {1..99999} >file$i.txt; done # I create eleven identical files of the size 588888 bytes.
zfs list -p poolname
NAME USED AVAIL REFER MOUNTPOINT
poolname 5677056 374730219520 98304 /poolname
374734901248 - 374730219520 = 4 681 728, i.e. cca 5MB.
Eu esperava que 11 arquivos idênticos (com a mesma soma de verificação) ocupassem um pouco mais de 588.888 bytes, ou seja, dez vezes menos.
Onde está o problema. Como lidar com essa redundância? Existe um sistema de arquivos melhor que o ZFS para essa finalidade?
Muito obrigado pela ajuda.