主要观点:Duperemove 是用于查找重复数据块并提交去重的简单工具,可存储计算的哈希值,能接受fdupes程序的输入,有详细的 man 页面介绍用法等,需内核版本大于等于 3.13 且使用 glib2 和 sqlite3 库。
关键信息:
- 可对给定文件列表按块哈希并比较找出重复数据块,可提交去重。
- 能存储哈希值,有 -d 选项用于提交去重,-r 用于递归扫描目录。
- 有要求如最新代码在master 分支,内核需 3.13 及以上,使用 glib2 和 sqlite3 库。
- FAQ 在duperemove man 页面,bug 报告和功能请求用github 问题追踪器。
- 有示例及实际运行输出,展示不同参数的去重效果。
重要细节: - 示例中不同参数组合可实现不同范围的去重操作及递归扫描。
- 实际运行输出中显示了使用的块大小、哈希算法、线程数等信息,以及去重过程中的各种数据和结果。
- duperemove wiki有设计和性能文档,duperemove-tests有回归测试,Duperemove web page。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。