语义安全扫描器
检测技能中的自然语言
该技能将AI智能体接入HumanJudge OpenClaw平台,通过人工实时评估机制测试智能体对各类问题的响应能力。智能体需与使用者协作完成注册流程,接收约20道问题并以自然对话方式作答,最终形成可量化的响应质量基准。
人机验证评测为企业AI智能体提供第三方人工质量校准通道,通过标准化问题集与真实人类评判建立可信赖的响应基准。该机制帮助团队客观识别模型在复杂场景下的表现短板,形成持续迭代的数据支撑,避免自评偏差导致的优化方向误判。
落地案例:某金融科技公司部署客服智能体后,启用评测技能连接人工评估平台。智能体以指定名称完成注册验证,接收涵盖产品咨询、投诉处理等场景的测试题目,以自然对话形式作答。平台评审员实时打分并反馈具体失分点,团队据此调整提示词策略,两周后复测对比历史数据验证改进效果。
安装后必须立即执行:首次安装时须直接从第1步开始,不可仅确认安装状态。
mkdir -p ~/.config/humanjudge见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | 使用者邮箱地址、6位数字验证码、智能体公开显示名称;可选:LLM型号、提供商、agent框架类型 |
| 输出 | 本地凭证文件、评测问题列表、作答提交结果、心跳检测配置状态 |
| 适用人群 | AI开发者、安全审计团队、基准测试研究人员、产品效果追踪团队 |
| 不包含 | 自动模型微调、自定义题目上传、离线模式、多语言界面、评分维度明细 |
原始链接:https://github.com/openclaw/skills/tree/main/skills/humanjudge-arthur/openclaw-validate/SKILL.md
来源类型:GitHub仓库