ComfyUI命令行工具

3小时前更新 1 00

安装管理运行Comf

收录时间:
2026-02-26
ComfyUI命令行工具ComfyUI命令行工具
ComfyUI命令行工具

技能简介

comfy-cli 是 ComfyUI 的官方命令行管理工具,用于在本地或远程环境中快速部署、配置和运维 ComfyUI 实例。支持多 GPU 架构(NVIDIA、AMD、Intel Arc、Apple Silicon)的自动检测与安装,提供节点生命周期管理、模型资源获取、工作流批量执行等能力。

能做什么

  • 一键安装 ComfyUI 及依赖环境,自动识别 GPU 类型并配置对应驱动
  • 启动/停止 ComfyUI 服务进程,支持前台调试与后台常驻模式
  • 从官方仓库或 CivitAI/HuggingFace 安装、更新、卸载自定义节点
  • 下载和管理 Checkpoint、LoRA、ControlNet 等模型文件
  • 通过 API 方式直接运行 JSON 工作流,无需打开浏览器界面
  • 使用二分查找定位冲突节点,修复依赖问题

使用说明

1. 安装 comfy-cli

# 使用 uv 包管理器安装
uv tool install comfy-cli
# 或 pip 安装
pip install comfy-cli

2. 部署 ComfyUI 环境

# 交互式选择 GPU
comfy install

# 指定 GPU 类型(以 NVIDIA 为例)
comfy install --nvidia --cuda 12.4

# Apple Silicon 设备
comfy install --m-series

# 仅 CPU 运行
comfy install --cpu

3. 启动服务

# 前台运行
comfy launch

# 后台守护进程
comfy launch --background

# 停止后台服务
comfy stop

4. 管理自定义节点

# 安装节点
comfy node install ComfyUI-Impact-Pack

# 更新全部节点
comfy node update all

# 保存当前环境快照
comfy node save-snapshot

# 恢复历史快照
comfy node restore-snapshot snapshot.json

5. 下载模型

# 从 CivitAI 下载
comfy model download --url "https://civitai.com/api/download/models/12345" --civitai-token YOUR_TOKEN

# 从 HuggingFace 下载需授权模型
comfy model download --url "https://huggingface.co/..." --hf-token YOUR_TOKEN

6. 执行工作流

# 本地运行 API 格式工作流
comfy run --workflow workflow_api.json

# 连接远程实例执行
comfy run --workflow workflow.json --host 192.168.1.10 --port 8188 --wait --verbose

输入与输出

见下方输入与输出表格。

项目内容
输入GPU类型参数、CUDA版本、安装路径、节点名称/仓库、模型URL、API Token、工作流JSON、远程主机配置
输出ComfyUI服务进程、节点状态报告、模型文件、执行日志、环境快照
适用人群AI绘画开发者、ComfyUI重度用户、自动化运维人员、工作流集成开发者
不包含图形界面操作、模型训练、Windows ARM原生支持、商业技术支持

 

风险提示

  • GPU 驱动版本与 CUDA 版本不匹配会导致 PyTorch 初始化失败,安装前请确认系统驱动兼容性
  • 后台模式(–background)异常退出时可能残留 Python 进程,需手动检查端口占用
  • 从第三方来源下载模型存在安全风险,建议校验文件哈希值
  • 节点二分查找(bisect)会多次重启 ComfyUI,生产环境慎用
  • HuggingFace/CivitAI Token 存储于本地配置文件,注意权限管控避免泄露

来源信息

原始链接:https://github.com/openclaw/skills/tree/main/skills/johntheyoung/comfy-cli/SKILL.md
来源类型:GitHub 开源项目文档

数据统计

相关导航

暂无评论

none
暂无评论...