根据文件大小清理重复文件的脚本

发布于 2024-10-21 16:27:01 字数 194 浏览 1 评论 0原文

我在 Windows XP 计算机上存储了一些备份日志文件,如下所示:

1.txt
2.txt
3.txt
4.txt
5.txt

所有这些文件的文件 1-3 具有相同的文件大小,2-5 的文件具有相同的文件大小。我想存储每组中具有相同文件大小的其中一个,并删除其余的。有人可以建议一个脚本来做到这一点吗?

I've got some backup log files on a Windows XP machine stores as follows:

1.txt
2.txt
3.txt
4.txt
5.txt

All of them have the files from 1-3 have same filesize and 2-5 have same filesize . I want to store one of them from each set having same filesize and delete the rest. Can someone suggest a script to do that?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

听风吹 2024-10-28 16:27:01

来自 File::Find::Duplicates 的工作示例(稍微改编)可能是一个好的开始:

use File::Find::Duplicates;

my @dupes = find_duplicate_files('/tmp/dup');

foreach my $dupeset (@dupes) { 
    printf "Files %s (of size %d) hash to %s\n",
    join(", ", @{$dupeset->files}), $dupeset->size, $dupeset->md5;
}

File::Find::Duplicates 匹配大小和 MD5 校验和,这可能就是您想要的。

The worked example from File::Find::Duplicates (slightly adapted) is probably a good start:

use File::Find::Duplicates;

my @dupes = find_duplicate_files('/tmp/dup');

foreach my $dupeset (@dupes) { 
    printf "Files %s (of size %d) hash to %s\n",
    join(", ", @{$dupeset->files}), $dupeset->size, $dupeset->md5;
}

File::Find::Duplicates matches on size and MD5 checksum, which is probably what you want.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文