文件去重清理

2小时前更新 1 00

智能查找并删除重复文

收录时间:
2026-02-26
文件去重清理文件去重清理
文件去重清理

技能简介

File-Deduplicator 是一款基于内容哈希的智能文件去重工具,通过 MD5 算法识别跨目录的相同文件,提供安全的删除选项与预览功能,帮助用户回收存储空间。

能做什么

  • 基于内容、大小或文件名检测重复文件
  • 递归扫描指定目录,支持排除模式(如 .git、node_modules)
  • 自动删除或移至归档,保留最新/最旧版本
  • 生成重复文件统计报告与空间节省估算
  • 试运行模式预览操作结果,避免误删

使用说明

安装指令:

clawhub install file-deduplicator

基础用法:

  1. 查找重复文件:调用 findDuplicates,传入目录路径数组,选择比对方式(content/size/name),获取重复组列表与浪费空间估算
  2. 预览删除效果:在 removeDuplicates 中设置 dryRun: true,查看将被处理的文件清单
  3. 执行清理:配置 keep 参数(newest/oldest/smallest/largest)决定保留规则,选择 action 为 delete 或 move,启用 autoConfirm 可跳过逐条确认
  4. 分析单目录:使用 analyzeDirectory 获取该目录的文件总数、占用空间及重复情况概览

输入与输出

见下方输入与输出表格。

项目内容
输入目标目录路径(支持多目录)、比对方式(content/size/name)、递归开关、文件大小范围、排除模式、白名单目录、保留规则、处理方式、试运行标志、自动确认标志
输出重复文件组列表、重复组数量、扫描文件总数、耗时、浪费空间、实际节省空间、已删除/移动文件数、操作日志路径、错误记录
适用人群需要定期清理重复文件的本地服务器管理员、数字资产归档人员、开发团队维护者、个人存储整理用户
不包含云存储服务原生集成、实时文件监控、企业级分布式全局去重、基于视觉相似度的近似重复检测

 

风险提示

  • 删除操作不可逆,建议首次使用前开启试运行模式验证结果
  • 重要系统目录请加入白名单,避免误删关键文件
  • 超大文件删除前建议单独确认,防止意外释放大量空间导致业务异常
  • 操作日志保存于本地,可用于必要时追溯恢复

来源信息

原始链接:https://github.com/openclaw/skills/tree/main/skills/michael-laffin/file-deduplicator/SKILL.md
来源类型:GitHub 仓库

数据统计

相关导航

暂无评论

none
暂无评论...