Notebooklm操作
Google Not

该技能在检测到用户通过语音唤醒发起对话时,使用 macOS 内置的 say 命令将助手回复朗读出来,无需调用云端 TTS 服务。
在macOS办公环境中,用户无需盯着屏幕即可获取助手回复。通过本地语音播报,减少视觉切换干扰,特别适合多任务并行或视力不便的场景,同时节省云端TTS调用成本。
落地案例:设计师正在使用Figma进行创作,向助手询问配色方案。检测到语音唤醒后,助手直接将推荐配色朗读出来,设计师无需离开设计界面即可获取信息。若回复包含代码片段,系统会自动生成摘要播报,避免冗长内容打断工作节奏。
安装要求:本技能为纯提示词技能,无需额外安装,但需运行在 macOS 系统上并确保 say 命令可用。
使用步骤:
User talked via voice recognition on m3 开头printf '%s' "$SPOKEN_TEXT" | saySAY_VOICE 指定音色,SAY_RATE 指定语速注意:每条消息单独判断,上下文不继承;耗时任务需先播报确认再执行。
见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 用户消息文本(检测是否以 “User talked via voice recognition on m3” 开头);可选环境变量 SAY_VOICE、SAY_RATE |
| 输出 | 语音播报(macOS say 命令执行);文本回复(始终返回) |
| 适用人群 | macOS 设备用户;使用 Voice Wake 语音唤醒功能的用户;需要本地离线 TTS 的场景 |
| 不包含 | Windows/Linux 系统支持;云端 TTS 服务;非语音唤醒消息的自动播报 |
say 命令仅在 macOS 可用,其他系统会执行失败原始链接:https://github.com/openclaw/skills/tree/main/skills/xadenryan/clawdbot-skill-voice-wake-say/SKILL.md
来源类型:GitHub 仓库
Q1:语音唤醒播报 适合哪些场景?
A:适合需要「该技能在检测到用户通过语音唤醒发起对话时,使用 macOS 内置的 sa」的场景,尤其是希望快速验证并落地的团队与个人。
Q2:第一次使用应该先做什么?
A:先明确目标任务,再按照页面中的“能做什么”和“使用说明”完成最小可行流程。
Q3:如何判断是否值得长期使用?
A:建议连续使用 1-2 周,对比效率、稳定性和协作成本,再决定是否纳入长期工具栈。