技能安全扫描器
检测技能代码安全风险
dgr 用于生成 LLM 输出的可审计决策文档,自动捕获模型推理过程中的关键假设、潜在风险及置信度评估,形成结构化审计线索。
在AI驱动决策日益普及的背景下,企业面临模型"黑箱"带来的合规与信任挑战。dgr帮助业务团队自动记录大语言模型的推理假设、潜在风险及置信度,生成结构化审计文档,满足金融监管等合规要求,同时为决策争议提供可追溯依据,降低因模型误判导致的业务损失与法律责任。
落地案例:某金融机构使用智能客服处理客户投诉分类,dgr实时捕获模型将客户情绪判定为"轻微不满"而非"严重投诉"的关键假设(如忽略特定关键词权重),标记该推理路径的中等风险等级,并生成包含置信度评分的审计报告。当后续发现分类错误时,团队可快速定位问题环节,复盘模型决策逻辑,优化业务规则。
安装指令:原始资料未提供具体安装步骤,需联系维护者或参考仓库 README 补充配置方法。
使用方式:将 dgr 集成至 LLM 调用链路,在获取模型输出后触发审计分析流程,导出标准化决策文档。
见下方输入与输出表格。
| 项目 | 内容 |
|---|---|
| 输入 | LLM 原始输出文本、对话上下文历史、审计策略配置 |
| 输出 | 结构化决策审计报告、假设清单与风险评级、置信度评分矩阵 |
| 适用人群 | AI 合规官、模型风险管理团队、金融/医疗等强监管行业开发者 |
| 不包含 | 模型训练数据审查、实时拦截机制、第三方认证背书 |
原始链接:https://github.com/openclaw/skills/tree/main/skills/sapenov/dgr/SKILL.md
来源类型:GitHub 开源仓库