根据文件大小清理重复文件的脚本
我在 Windows XP 计算机上存储了一些备份日志文件,如下所示:
1.txt
2.txt
3.txt
4.txt
5.txt
所有这些文件的文件 1-3 具有相同的文件大小,2-5 的文件具有相同的文件大小。我想存储每组中具有相同文件大小的其中一个,并删除其余的。有人可以建议一个脚本来做到这一点吗?
I've got some backup log files on a Windows XP machine stores as follows:
1.txt
2.txt
3.txt
4.txt
5.txt
All of them have the files from 1-3 have same filesize and 2-5 have same filesize . I want to store one of them from each set having same filesize and delete the rest. Can someone suggest a script to do that?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
来自 File::Find::Duplicates 的工作示例(稍微改编)可能是一个好的开始:
File::Find::Duplicates 匹配大小和 MD5 校验和,这可能就是您想要的。
The worked example from File::Find::Duplicates (slightly adapted) is probably a good start:
File::Find::Duplicates matches on size and MD5 checksum, which is probably what you want.