每日动力激励
个性化鼓励与目标追踪
Reflect 通过分析用户与智能体的对话记录,识别纠正指令和成功经验,将零散反馈转化为系统化的持久改进。核心理念是”纠正一次,永不再犯”——把用户的每一次指正编码为智能体文件更新或新技能创建。
安装准备
# 克隆仓库
git clone https://github.com/openclaw/skills.git
cd skills/stevengonsalvez/reflect-learn
# 初始化状态管理
python scripts/state_manager.py init
# 可选:配置状态目录(默认 ~/.reflect/)
export REFLECT_STATE_DIR=/custom/path
基础命令
/reflect # 分析当前对话提取学习点
/reflect on # 开启自动反射(会话结束时自动分析)
/reflect off # 关闭自动反射
/reflect status # 查看状态和统计
/reflect review # 复核低置信度学习点
/reflect [agent名] # 聚焦特定智能体分析
典型工作流
signal_detector.py --input conversation.txt 识别信号见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 对话记录文本、目标智能体名称(可选)、状态目录路径 |
| 输出 | 分析报告、智能体更新提案(含diff)、新技能提案、状态文件更新 |
| 适用人群 | 优化智能体行为的开发团队、固化AI协作经验的用户、多智能体系统架构师 |
| 不包含 | 实时对话拦截、自动执行更新、非文本输入、第三方工具集成 |
原始链接:https://github.com/openclaw/skills/tree/main/skills/stevengonsalvez/reflect-learn/SKILL.md
来源类型:GitHub 仓库