头图

4 月 9 日凌晨,Agentica 团队携手 Together AI 联合开源了名为 DeepCoder-14B-Preview 的代码推理模型,这个仅需 14B 即可媲美 OpenAI o3-Mini 的新模型迅速引起业界广泛关注,在 GitHub 狂揽 3k stars。

图片

DeepCoder 在多项评测中的得分情况具体而言,DeepCoder-14B-Preview 是一款基于 DeepSeek-R1-Distilled-Qwen-14B 进行微调的代码推理 LLM,使用分布式强化学习 (RL) 扩展上下文长度。该模型在 LiveCodeBench v5 (8/1/24-2/1/25) 上实现了 60.6% 的单次通过率 (Pass@1),不仅超越了其基础模型,并且仅凭 140 亿参数就达到了与 OpenAI o3-mini 相当的性能。目前「一键部署 DeepCoder-14B-Preview」教程已上线 OpenBayes,模型克隆完成后进入「API 地址」即可快速体验模型!

教程链接:https://go.openbayes.com/wKkjcDemo

运行

01 运行阶段

  1. 登录 OpenBayes.com,在「公共教程」页面,选择「一键部署 DeepCoder-14B-Preview」教程。

图片

  1. 页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

图片

  1. 选择「NVIDIA GeForce RTX 4090」以及「vLLM」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!小贝总专属邀请链接(直接复制到浏览器打开):https://go.openbayes.com/9S6Dr

图片

图片

  1. 等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」旁边的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。

图片

图片

02 效果演示

  1. 进入 Demo 页面后即可体验模型。本教程以 DeepCoder-14B-Preview 模型为演示案例,采用 bitsandbytes 提供的 8-bit 量化方法来优化显存占用。在「input」栏中输入内容,点击「Submit」生成。点击「Clear History」可清除对话记录。

图片

  1. 此处以经典的冒泡排序为例,可以看到模型很快地对问题做出了答复。

图片

新用户福利

注册福利:点击下方邀请链接注册,即可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费算力时长,永久有效! 

小贝总专属邀请链接(直接复制到浏览器打开):
https://go.openbayes.com/9S6Dr

  • 活动福利:参与第二期创作者激励计划,即可赢得现金奖励!

图片


OpenBayes
6 声望1 粉丝

贝式计算是中国领先的高性能计算服务提供商,通过为新一代异构芯片嫁接经典软件生态及机器学习模型,向工业企业及高效科研院所提供更加快速、易用的数据科学计算产品。