对话反思学习

2小时前更新 1 00

从对话中提取改进点并

收录时间:
2026-02-26
对话反思学习对话反思学习
对话反思学习

技能简介

Reflect 通过分析用户与智能体的对话记录,识别纠正指令和成功经验,将零散反馈转化为系统化的持久改进。核心理念是”纠正一次,永不再犯”——把用户的每一次指正编码为智能体文件更新或新技能创建。

能做什么

  • 扫描对话中的高置信度信号(如”永远不要X”、”总是Y”)
  • 自动分类学习点:代码风格、架构设计、流程规范、领域知识、工具使用
  • 匹配到目标智能体文件或提议创建新技能
  • 生成带差异对比的更新提案
  • 支持手动触发/自动反射两种模式

使用说明

安装准备

# 克隆仓库
git clone https://github.com/openclaw/skills.git
cd skills/stevengonsalvez/reflect-learn

# 初始化状态管理
python scripts/state_manager.py init

# 可选:配置状态目录(默认 ~/.reflect/)
export REFLECT_STATE_DIR=/custom/path

基础命令

/reflect              # 分析当前对话提取学习点
/reflect on           # 开启自动反射(会话结束时自动分析)
/reflect off          # 关闭自动反射
/reflect status       # 查看状态和统计
/reflect review       # 复核低置信度学习点
/reflect [agent名]    # 聚焦特定智能体分析

典型工作流

  1. 运行 signal_detector.py --input conversation.txt 识别信号
  2. 按置信度分级:高(明确纠正词)、中(认可表达)、低(观察模式)
  3. 对照 agent_mappings.md 映射到目标文件
  4. 通过质量门禁检查(可复用、非平凡、具体、已验证、无重复)
  5. 生成包含差异对比和提交信息的完整提案

输入与输出

见下方输入与输出表格。

项目内容
输入对话记录文本、目标智能体名称(可选)、状态目录路径
输出分析报告、智能体更新提案(含diff)、新技能提案、状态文件更新
适用人群优化智能体行为的开发团队、固化AI协作经验的用户、多智能体系统架构师
不包含实时对话拦截、自动执行更新、非文本输入、第三方工具集成

 

风险提示

  • 低置信度信号需人工复核,避免误学错误模式
  • 自动更新前务必检查与现有规则的冲突
  • 状态文件丢失将导致待审核学习点清空
  • 敏感对话内容可能残留在本地状态目录

来源信息

原始链接:https://github.com/openclaw/skills/tree/main/skills/stevengonsalvez/reflect-learn/SKILL.md
来源类型:GitHub 仓库

数据统计

相关导航

暂无评论

none
暂无评论...