本地Ollama模型管理

2小时前更新 6 00

本地大语言模型运维工

收录时间:
2026-02-26
本地Ollama模型管理本地Ollama模型管理
本地Ollama模型管理

技能简介

该技能用于在本地环境中管理和运行Ollama大语言模型,支持模型拉取、对话生成、嵌入计算及工具调用等功能,可与OpenClaw子代理集成实现分布式任务处理。

能做什么

  • 列出、下载、删除本地模型
  • 执行对话交互与文本补全
  • 生成文本嵌入向量
  • 调用外部工具完成复杂任务
  • 并行启动多个子代理协作

使用说明

1. 环境准备

确保Ollama服务已启动,默认地址为http://localhost:11434。若使用远程服务器,需设置环境变量:

export OLLAMA_HOST="http://192.168.1.100:11434"

2. 安装依赖

克隆仓库后进入技能目录,根据项目要求安装Python依赖(通常需requests等库)。

3. 基础操作

查看已安装模型:

python3 scripts/ollama.py list

下载新模型:

python3 scripts/ollama.py pull llama3.1:8b

启动对话:

python3 scripts/ollama.py chat qwen3:4b "问题内容"

4. 工具调用

使用支持函数调用的模型(如qwen2.5-coder):

python3 scripts/ollama_tools.py loop qwen3:4b "搜索并总结Python教程"

5. 子代理集成

在OpenClaw中通过sessions_spawn启动本地模型代理:

sessions_spawn(task="代码审查", model="ollama/qwen2.5-coder:7b", label="reviewer")

输入与输出

见下方输入与输出表格。

项目内容
输入自然语言指令、模型名称标签、系统提示词(可选)、工具定义(可选)
输出文本回复、嵌入向量、工具调用结果、子代理会话标识
适用人群需在本地运行LLM的开发者、重视数据隐私的团队、需要离线推理的场景、多代理协作任务
不包含云端API调用、模型训练微调、图形界面操作、自动硬件优化配置

 

风险提示

  • 大模型可能占用较多显存,VRAM不足时会自动切换至CPU运行导致速度下降
  • 远程连接需开放11434端口,存在未授权访问风险
  • 部分模型不支持工具调用,需查阅兼容性列表
  • 量化版本选择不当可能影响输出质量

来源信息

原始链接:https://github.com/openclaw/skills/tree/main/skills/timverhoogt/ollama-local/SKILL.md
来源类型:GitHub仓库

数据统计

相关导航

暂无评论

none
暂无评论...