llama.cpp本地推理
技能简介llama.cpp打破CUDA垄断,以极致优化的C...
slime是 powering GLM 4.5/4.6/4.7 的后训练框架,打通Megatron-LM分布式训练与SGLang高速采样。适用于大模型RLHF、自定义数据生成流程及需要紧密集成的规模化强化学习训练。
# Recommended: Docker
docker pull slimerl/slime:latest
slime-rl-training
见下方输入与输出表格。
| 输入 | 输出 |
|---|---|
| 任务目标、输入资料和约束条件;需要处理的平台或对象;结果格式要求 | 结构化结果;执行建议或可交付产物;便于复核的后续说明 |
原始链接:https://github.com/Orchestra-Research/AI-Research-SKILLs
来源类型:GitHub 开源仓库