云端AI应用运行器云端AI应用运行器
云端AI应用运行器

技能简介

inference.sh 是一个云端AI应用运行平台,通过单一命令行工具即可调用超过150个AI模型与服务,覆盖图像生成视频合成大语言模型对话、网络搜索、3D建模及社交媒体自动化等场景。无需本地GPU配置,所有计算在云端完成。

能做什么

  • 生成图像:FLUX、Gemini、Grok Imagine、Seedream等主流文生图模型
  • 合成视频:Veo 3.1、Seedance、OmniHuman数字人、Wan 2.5等
  • 调用大语言模型:Claude系列、Gemini、Kimi K2、GLM-4及OpenRouter全量模型
  • 执行网络搜索:Tavily、Exa等专业搜索API
  • 操作Twitter/X:发帖、私信、关注、点赞、转发
  • 生成3D资产:Rodin等3D生成工具

使用说明

安装CLI

curl -fsSL https://cli.inference.sh | sh
infsh login

基础用法

1. 查看全部应用:infsh app list

2. 搜索特定应用:infsh app list --search "flux"

3. 获取应用详情:infsh app get google/veo-3-1-fast

4. 生成示例输入文件:infsh app sample google/veo-3-1-fast --save input.json

5. 运行应用:infsh app run falai/flux-dev-lora --input '{"prompt": "a cat astronaut"}'

6. 异步执行(不等待结果):infsh app run <app> --input input.json --no-wait

7. 查询任务状态:infsh task get <task-id>

输入与输出

见下方输入与输出表格。

项目内容
输入应用标识符(vendor/app-name)、JSON格式参数对象、CLI选项标志(–no-wait/–save等)
输出生成的媒体文件URL或本地路径、任务状态信息、错误提示(如有)
适用人群需要快速调用多模态AI能力但无本地算力的开发者、设计师、运营人员
不包含本地模型推理、自定义模型上传、离线运行能力、固定订阅费用模式

 

风险提示

  • 需要联网环境,依赖inference.sh云服务可用性
  • 部分模型按调用次数或Token计费,需提前确认账户余额
  • 生成内容需遵守各模型提供商的使用政策与版权规范
  • Twitter自动化功能需授权OAuth权限,注意账号安全
  • 异步任务需自行轮询状态,存在结果获取延迟

来源信息

原始链接:https://github.com/openclaw/skills/tree/main/skills/okaris/inference-sh/SKILL.md
来源类型:GitHub仓库

数据统计

相关导航

暂无评论

none
暂无评论...