语音唤醒播报
macOS本地语音朗
voice-ui 是一个支持语音对话的AI助手界面,用户通过说话与AI交流,并直接口述指令让AI修改自身代码,实现UI的自我进化。修改后的代码会自动提交到Git仓库。
用自然语音与AI助手对话,无需编程即可实时调整界面样式和功能。适合产品经理或设计师快速验证交互想法,减少与开发团队的沟通往返。
落地案例:产品经理在演示原型时,口述"把按钮改成蓝色并放大一点",助手自动修改CSS代码并立即生效;确认效果后继续语音指令"添加一个加载动画",变更自动提交Git记录。全程无需编写代码,快速迭代UI方案。
cd <workspace>/skills/voice-uinpm install./start.shhttp://localhost:8765~/.openclaw/openclaw.json 中添加voice agent,指定模型为 anthropic/claude-sonnet-4-5OPENAI_API_KEY 用于语音服务,或依赖OpenClaw自动获取见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 语音指令(自然语言描述UI修改需求);OpenAI API Key;OpenClaw配置文件中的agent设置 |
| 输出 | 语音合成回复;实时更新的HTML/CSS/JS代码文件;自动生成的Git提交记录 |
| 适用人群 | 前端开发者、希望快速原型验证的产品人员、探索语音驱动编程的技术团队 |
| 不包含 | 多轮复杂项目管理功能;非前端代码(后端/数据库)的自动生成;云端部署方案;权限控制与代码审核机制 |
原始链接:https://github.com/openclaw/skills/tree/main/skills/yukihamada/voice-ui/SKILL.md
来源类型:GitHub仓库