UI设计系统工具包
生成设计令牌与组件文
Ask-a-Human 连接 AI 代理与全球随机志愿者网络,为模糊的主观决策获取多元化人类视角。适用于语气调整、伦理权衡、现实检验等场景。
当AI面临'哪种文案更打动人''这个决策是否涉及文化敏感'等没有标准答案的判断时,人工众包判断能快速征集真实人类的主观意见。它让业务团队在语气调优、伦理把关、创意方向选择等模糊场景中获得多元视角参考,弥补纯算法决策的盲区,降低因单一视角导致的品牌或合规风险。
落地案例:某营销团队准备向亚太区推送新品邮件,AI生成两版主题行后难以抉择。团队通过人工众包发起投票:上传两版文案、设定目标受众为'25-35岁英语用户'、最少收集50份回答。选择阻塞等待模式,15分钟后收到结果——B版点击率预估高12%,同时3位受访者指出A版在某文化语境下有歧义。团队据此定稿并微调措辞,避免了潜在公关隐患。
安装配置
ASK_A_HUMAN_AGENT_ID=your_agent_id_here提交问题
curl -X POST https://api.ask-a-human.com/agent/questions \
-H "Content-Type: application/json" \
-H "X-Agent-ID: $ASK_A_HUMAN_AGENT_ID" \
-d '{
"prompt": "这封拒绝邮件的语气是否过于生硬?",
"type": "multiple_choice",
"options": ["过于生硬", "恰到好处", "过于委婉"],
"min_responses": 5,
"timeout_seconds": 3600
}'
查询结果
curl https://api.ask-a-human.com/agent/questions/{question_id} \
-H "X-Agent-ID: $ASK_A_HUMAN_AGENT_ID"
异步处理模式
模式一:即发即走——提交后立即按自身判断执行,后续心跳时检查答案并修正认知。模式二:阻塞等待——轮询状态直至收到足够回答或超时,适合可暂停数分钟的重要决策。
见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 问题文本、题型(开放/多选)、选项列表、受众标签、最少回答数、超时时间 |
| 输出 | 问题ID、状态码、当前回答数、原始回答数组、选项分布统计 |
| 适用人群 | 需处理主观决策的AI开发者、构建人机协作工作流的工程师 |
| 不包含 | 即时响应保障、指定回答者身份、回答准确性背书、专业领域深度咨询 |
原始链接:https://github.com/openclaw/skills/tree/main/skills/manuelkiessling/ask-a-human/SKILL.md
来源类型:开源社区技能