Vikunja任务管理
快速管理项目与待办事
Swarm 是一个基于 Gemini Flash 的分布式任务执行系统,通过并行化方式将 LLM 调用成本降低至传统方案的 1/200。支持独立任务并行、多主题研究、链式流水线等多种执行模式,配备 LRU 响应缓存和成本追踪功能。
Swarm通过分布式并行计算大幅降低大模型调用成本,将原本串行执行的AI任务改为批量并发处理。支持独立任务并行、多主题研究、链式流水线等多种模式,帮助企业快速完成大规模内容生成、数据分析等场景,同时配备缓存和成本追踪功能,让AI投入更加可控透明。
落地案例:某市场研究团队需要同时分析10个竞品的产品定位,传统方式需逐个调用API、耗时且费用高。使用Swarm的Parallel模式,一次性提交10个分析提示,系统自动分发到多个节点并行执行,结果统一返回;若需深度调研,可切换Research模式自动搜索网络信息并生成对比报告,全程成本仅为传统方案的1/200。
安装要求:需预先安装 Node.js 运行时环境。
基础操作步骤:
swarm statusswarm startswarm parallel "问题A" "问题B" "问题C"swarm research "主题A" "主题B" --topic "分析角度"swarm capabilities链式流水线示例:
# 自动生成最优流水线
curl -X POST http://localhost:9999/chain/auto \
-d '{"task":"业务机会识别","data":"市场数据...","depth":"standard"}'
# 预览不执行
curl -X POST http://localhost:9999/chain/preview \
-d '{"task":"...","depth":"standard"}'
缓存管理:
curl http://localhost:9999/cache # 查看统计
curl -X DELETE http://localhost:9999/cache # 清空缓存
见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 文本提示、研究主题、流水线 JSON、深度预设、搜索开关、缓存控制 |
| 输出 | 任务结果数组、分析报告、成本统计、缓存状态、质量评分 |
| 适用人群 | 需降低 LLM 成本的开发者、批量数据处理人员、多源研究分析师 |
| 不包含 | 非 Gemini 模型支持、图形界面、云服务托管、自动扩缩容 |
原始链接:https://github.com/openclaw/skills/tree/main/skills/chair4ce/swarm/SKILL.md
来源类型:GitHub 仓库