上下文优化器

35秒前更新 1 00

智能压缩与动态管理长

收录时间:
2026-02-26
上下文优化器上下文优化器
上下文优化器

技能简介

Context Optimizer 是面向 DeepSeek 64K 上下文窗口的高级上下文管理工具,提供智能压缩、语义去重和动态相关性过滤功能,防止上下文溢出同时保留关键信息。

业务背景

解决大模型长对话中的上下文溢出难题。当业务对话累积过长时,系统自动压缩冗余信息、合并重复内容,并基于当前问题精准筛选相关历史,确保核心信息不丢失,让AI助手持续保持高效理解与响应能力,降低人工干预成本。

落地案例:客服场景下,用户与AI助手已进行50轮复杂咨询,原始消息占用接近64K上限。系统触发智能压缩:首先语义去重合并相似追问,再按当前投诉问题动态过滤三个月前的无关记录,最终从归档库召回关键保单信息补充上下文,使助手准确续接对话而无需用户重复描述。

能做什么

  • 自动压缩:根据上下文使用率触发多种压缩策略
  • 语义去重:识别并合并相似消息内容
  • 查询感知:基于当前问题动态筛选相关历史
  • 分层记忆:当前上下文不足时从归档检索
  • 实时监控:持续跟踪上下文健康状态

使用说明

安装依赖

cd ~/.clawdbot/skills/context-pruner && npm install

基础使用

import { createContextPruner } from './lib/index.js';

const pruner = createContextPruner({
  contextLimit: 64000,
  autoCompact: true,
  dynamicContext: true,
  strategies: ['semantic', 'temporal', 'extractive', 'adaptive'],
  queryAwareCompaction: true
});

await pruner.initialize();
const processed = await pruner.processMessages(messages, currentQuery);

归档检索

const result = await pruner.retrieveFromArchive('查询内容', {
  maxContextTokens: 1000,
  minRelevance: 0.4
});

输入与输出

见下方输入与输出表格。

项目内容
输入messages(待处理消息数组)、currentQuery(当前查询文本)、配置对象(contextLimit/autoCompact/strategies等)
输出processed(压缩后的消息列表)、status(上下文健康度与相关性分数)、archiveResult(归档检索到的片段与来源)
适用人群开发 DeepSeek 长对话应用的工程师、构建记忆型 AI Agent 的开发者、需要优化 Token 消耗的运维人员
不包含其他大模型的专属优化、跨会话持久化数据库、企业级审计日志、可视化监控面板

 

风险提示

  • 压缩过程可能丢失部分细节信息
  • 归档检索速度低于内存访问
  • 相关性评分依赖模型质量
  • 高频压缩可能影响响应延迟

来源信息

原始链接:https://github.com/openclaw/skills/tree/main/skills/ad2546/context-optimizer/SKILL.md
来源类型:GitHub 开源项目

数据统计

相关导航

暂无评论

none
暂无评论...