主要观点:今天开源“强大”“多样”“实用”的 Qwen2.5-Coder 系列,推动 Open CodeLLMs 发展。
关键信息:
- 开源多种模型尺寸(0.5B - 32B),涵盖六种主流规模,验证缩放定律有效性。
- 32B 模型在代码生成、修复、推理等方面性能卓越,与 GPT-4o 性能相当,多语言表现优秀,在人类偏好对齐方面有优势。
- 在代码助手(Cursor)和 Artifacts 场景中展示实际性能,在多个基准测试中取得 SOTA 成绩。
- 不同尺寸模型的 Base 和 Instruct 版本性能各异,模型规模与性能呈正相关。
- Qwen2.5-Coder 部分模型基于 Apache 2.0 许可证,部分 3B 模型有特殊许可证。
重要细节: - 详细列出各模型尺寸的参数、层数等信息。
- 展示在不同场景下(如代码生成、修复、推理等)的具体实验数据和对比结果。
- 提及将在 Tongyi 官方网站推出代码模式,欢迎体验。
- 给出两篇相关论文的引用信息。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用。你还可以使用@来通知其他用户。