AI模型路由代理AI模型路由代理
AI模型路由代理

技能简介

RelayPlane 是一款本地运行的 AI 模型路由代理,通过自动将简单任务分配给低价模型、复杂任务保留给高性能模型,帮助开发者减少 OpenClaw 等平台的 API 支出。典型场景下每月可节省约 47 美元。

业务背景

RelayPlane 在本地运行,自动判断任务复杂度:把文件读取、状态检查等简单操作分给低价模型,复杂推理留给高端模型。典型场景每月可省约47美元API费用,同时支持离线模式保护数据隐私,故障时还能自动回退保障业务连续性。

落地案例:开发团队日常调用OpenClaw API处理各类任务时,无需人工判断该用哪个模型——系统会自动将"读取日志文件"路由至Haiku等低价模型,将"深度代码分析"保留给Opus。运维人员通过relayplane-proxy stats随时查看各模型的用量与成本拆分,清晰掌握节省效果。配置仅需修改环境变量指向本地代理端口,即可透明接入现有工作流。

能做什么

  • 自动识别任务复杂度,将文件读取、状态检查等简单操作路由至 Haiku 等低价模型
  • 复杂推理任务保持使用 Opus 等高端模型
  • 故障时自动回退,保障服务连续性
  • 提供用量统计与成本拆分视图
  • 支持完全离线模式运行,保护数据隐私

使用说明

安装指令:

npm install -g @relayplane/proxy

配置步骤:

  1. 启动代理服务:relayplane-proxy
  2. 设置环境变量指向本地代理(添加至 shell 配置文件):
    export ANTHROPIC_BASE_URL=http://localhost:3001
    export OPENAI_BASE_URL=http://localhost:3001
  3. 配置 API 密钥:
    export ANTHROPIC_API_KEY=sk-ant-...
    export OPENAI_API_KEY=sk-...
  4. 正常使用 OpenClaw,请求将自动经过 RelayPlane 路由

常用命令:

  • relayplane-proxy stats — 查看用量与成本明细
  • relayplane-proxy --port 8080 — 自定义端口
  • relayplane-proxy --offline — 关闭遥测的离线模式
  • relayplane-proxy telemetry off — 关闭匿名遥测

输入与输出

见下方输入与输出表格。

项目内容
输入Anthropic/OpenAI API 密钥;可选配置项包括自定义端口、主机绑定、离线模式开关
输出经智能路由的 LLM 响应结果;实时成本节省数据;历史用量统计报表
适用人群高频使用 OpenClaw 且月消费超 60 美元的开发者;希望自动化模型选型的技术团队
不包含云端代理托管服务;模型训练能力;企业级 SLA 保障

 

风险提示

  • 需修改环境变量将 API 流量指向本地代理,配置错误可能导致请求失败
  • Pro 版订阅(29 美元/月)仅在 API 月消费超过 60 美元时才具性价比
  • 默认启用匿名遥测(仅含令牌数、延迟、模型类型),敏感环境建议开启 --offlinetelemetry off
  • 本地代理故障时需手动恢复原始 API 端点配置

来源信息

原始链接:https://github.com/openclaw/skills/tree/main/skills/relayplane/relayplane/SKILL.md
来源类型:GitHub 仓库

数据统计

相关导航

暂无评论

none
暂无评论...