高级DevOps工具集
CI/CD与基础设施
该技能用于在本地环境中管理和运行Ollama大语言模型,支持模型拉取、对话生成、嵌入计算及工具调用等功能,可与OpenClaw子代理集成实现分布式任务处理。
1. 环境准备
确保Ollama服务已启动,默认地址为http://localhost:11434。若使用远程服务器,需设置环境变量:
export OLLAMA_HOST="http://192.168.1.100:11434"
2. 安装依赖
克隆仓库后进入技能目录,根据项目要求安装Python依赖(通常需requests等库)。
3. 基础操作
查看已安装模型:
python3 scripts/ollama.py list
下载新模型:
python3 scripts/ollama.py pull llama3.1:8b
启动对话:
python3 scripts/ollama.py chat qwen3:4b "问题内容"
4. 工具调用
使用支持函数调用的模型(如qwen2.5-coder):
python3 scripts/ollama_tools.py loop qwen3:4b "搜索并总结Python教程"
5. 子代理集成
在OpenClaw中通过sessions_spawn启动本地模型代理:
sessions_spawn(task="代码审查", model="ollama/qwen2.5-coder:7b", label="reviewer")
见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 自然语言指令、模型名称标签、系统提示词(可选)、工具定义(可选) |
| 输出 | 文本回复、嵌入向量、工具调用结果、子代理会话标识 |
| 适用人群 | 需在本地运行LLM的开发者、重视数据隐私的团队、需要离线推理的场景、多代理协作任务 |
| 不包含 | 云端API调用、模型训练微调、图形界面操作、自动硬件优化配置 |
原始链接:https://github.com/openclaw/skills/tree/main/skills/timverhoogt/ollama-local/SKILL.md
来源类型:GitHub仓库