AIFS云文件存储
云端文件存取与同步
inference.sh 是一个云端AI应用运行平台,通过单一命令行工具即可调用超过150个AI模型与服务,覆盖图像生成、视频合成、大语言模型对话、网络搜索、3D建模及社交媒体自动化等场景。无需本地GPU配置,所有计算在云端完成。
安装CLI
curl -fsSL https://cli.inference.sh | sh
infsh login
基础用法
1. 查看全部应用:infsh app list
2. 搜索特定应用:infsh app list --search "flux"
3. 获取应用详情:infsh app get google/veo-3-1-fast
4. 生成示例输入文件:infsh app sample google/veo-3-1-fast --save input.json
5. 运行应用:infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'
6. 异步执行(不等待结果):infsh app run <app> --input input.json --no-wait
7. 查询任务状态:infsh task get <task-id>
见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 应用标识符(vendor/app-name)、JSON格式参数对象、CLI选项标志(–no-wait/–save等) |
| 输出 | 生成的媒体文件URL或本地路径、任务状态信息、错误提示(如有) |
| 适用人群 | 需要快速调用多模态AI能力但无本地算力的开发者、设计师、运营人员 |
| 不包含 | 本地模型推理、自定义模型上传、离线运行能力、固定订阅费用模式 |
原始链接:https://github.com/openclaw/skills/tree/main/skills/okaris/inference-sh/SKILL.md
来源类型:GitHub仓库