BigCode代码模型评测

13小时前发布 0 00

技能简介由BigCode社区维护的权威代码能力评估框架,提供开箱即用的多语言测试套件与统一指标计算,帮助研究者和工程师客观对比不同代码模型的生成质量、多语言泛化能力与特定场景表现。能做什么整理模型调用与提示流程沉淀可复用的智能体能力输出可接入业务的执行方案使用说明明确模型目标与输入边界。配置提示流程和调用参数。检查输出质量并做人工复核。g...

收录时间:
2026-03-06
BigCode代码模型评测BigCode代码模型评测
BigCode代码模型评测

技能简介

由BigCode社区维护的权威代码能力评估框架,提供开箱即用的多语言测试套件与统一指标计算,帮助研究者和工程师客观对比不同代码模型的生成质量、多语言泛化能力与特定场景表现。

能做什么

  • 整理模型调用与提示流程
  • 沉淀可复用的智能体能力
  • 输出可接入业务的执行方案

使用说明

  • 明确模型目标与输入边界。
  • 配置提示流程和调用参数。
  • 检查输出质量并做人工复核。

git clone https://github.com/bigcode-project/bigcode-evaluation-harness.git

pip install -e .

英文名

evaluating-code-models

输入与输出

见下方输入与输出表格。

输入输出
任务目标、输入资料和约束条件;需要处理的平台或对象;结果格式要求结构化结果;执行建议或可交付产物;便于复核的后续说明

 

风险提示

  • 涉及外部平台接口、账号或权限时,先确认授权边界与数据访问范围。
  • 自动生成或自动执行结果应保留人工复核,避免直接替代最终业务判断。
  • 若处理内部资料、客户信息或经营数据,应先完成脱敏与权限控制。

来源信息

原始链接:https://github.com/Orchestra-Research/AI-Research-SKILLs
来源类型:GitHub 开源仓库

数据统计

相关导航

暂无评论

none
暂无评论...