技能简介
Dual-Brain 是一个后台守护进程,为每条用户消息自动生成来自第二 LLM(与主模型不同)的简短视角,帮助 Agent 在回复前获得认知多样性输入。
业务背景
主模型在回复前自动获得第二视角的输入,打破单一模型的思维定式,减少盲区与偏见。适用于需要审慎决策、创意发散或复杂问题分析的场景,让AI输出更具深度与平衡性,提升最终交付质量。
落地案例:某客服Agent收到用户投诉后,主模型准备标准回复时,Dual-Brain已同步调用副模型生成简短观点——指出用户情绪背后的潜在诉求及合规风险点。Agent综合两方输入,调整话术优先安抚情绪并主动提供补偿方案,避免机械回应激化矛盾。
能做什么
- 自动拦截会话消息并发送至副模型生成 2-3 句观点
- 支持 Ollama、Moonshot/Kimi、OpenAI、Groq 四种提供商
- 将视角写入文件供主 Agent 读取并综合
- 可选集成 Engram 语义记忆实现长期存储
使用说明
安装与启动:
npm install -g openclaw-dual-brain
dual-brain setup # 交互式配置提供商、模型、API Key
dual-brain start # 前台启动守护进程
常用命令:
dual-brain stop— 停止守护进程dual-brain status— 查看运行状态dual-brain logs— 查看近期活动日志dual-brain install-daemon— 安装为系统服务
Agent 集成方式:在回复用户前读取 ~/.dual-brain/perspectives/{your-agent-id}-latest.md,将其中观点与自身推理综合后输出。
输入与输出
见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 用户消息文本、Agent ID、JSON 配置文件(含提供商与模型设置) |
| 输出 | Markdown 格式视角文件(2-3 句观点)、可选 Engram 记忆条目 |
| 适用人群 | 金融分析师、量化交易员、需要多模型交叉验证的 AI Agent 开发者 |
| 不包含 | 主模型推理引擎、实时市场数据源、模型训练或微调能力 |
风险提示
- 副模型延迟可能增加整体响应时间(通常 <1 秒)
- 多模型 API 调用产生额外成本
- 需妥善保管配置文件中的 API Key
- 本地 Ollama 模式需确保硬件资源充足
来源信息
原始链接:https://github.com/openclaw/skills/tree/main/skills/dannydvm/dual-brain/SKILL.md
来源类型:GitHub 开源项目
常见问题
Q1:Dual生成 适合哪些场景?
A:适合需要「技能简介 Dual-Brain 是一个后台守护进程,为每条用户消息自动生」的场景,尤其是希望快速验证并落地的团队与个人。
Q2:第一次使用应该先做什么?
A:先明确目标任务,再按照页面中的“能做什么”和“使用说明”完成最小可行流程。
Q3:如何判断是否值得长期使用?
A:建议连续使用 1-2 周,对比效率、稳定性和协作成本,再决定是否纳入长期工具栈。
