DeepSeek-V3、R1 系列模型
DeepSeek-V3 是 DeepSeek 发布的 MoE(Mixture-of-Experts)大语言模型,总参数量为671B,每个 token 激活的参数量为37B。为了实现高效的推理和成本效益的训练,DeepSeek-V3 采用了 MLA(Multi-head Latent Attention)和 DeepSeekMoE 架构。此外,DeepSeek-V3 首次引入了一种无需辅助损失的负载均衡策略,并设定了多token预测的训练目标,以提升性能。DeepSeek-V3在14.8万亿个多样且高质量的token上对模型进行了预训练,随后通过监督微调(SFT)和强化学习来充分发挥其潜力。
DeepSeek-R1 是 DeepSeek 发布的高性能AI推理模型,在后训练阶段大规模使用强化学习技术,显著提升了模型的推理能力,在数学、代码、自然语言推理等任务上,其性能与 OpenAI 的 o1 正式版相当。
DeepSeek-R1具有660B的参数量,DeepSeek 开源 660B 模型的同时,通过模型蒸馏,微调了若干参数量较小的开源模型,其中包括:
模型 | 基础模型 |
---|---|
DeepSeek-R1-Distill-Qwen-1.5B | Qwen2.5-Math-1.5B |
DeepSeek-R1-Distill-Qwen-7B | Qwen2.5-Math-7B |
DeepSeek-R1-Distill-Llama-8B | Llama-3.1-8B |
DeepSeek-R1-Distill-Qwen-14B | Qwen2.5-14B |
DeepSeek-R1-Distill-Qwen-32B | Qwen2.5-32B |
DeepSeek-R1-Distill-Llama-70B | Llama-3.3-70B-Instruct |
目前PAI Model Gallery已经支持DeepSeek-V3、DeepSeek-R1以及所有蒸馏小参数模型(DeepSeek-R1-Distill)的一键部署。
PAI Model Gallery 简介
Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域,如Qwen,DeepSeek等系列模型。通过 PAI 对这些模型的适配,用户可以零代码实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。
PAI Model Gallery 访问地址:https://pai.console.aliyun.com/#/quick-start/models
PAI Model Gallery 一键部署 DeepSeek-V3、DeepSeek-R1
进入 Model Gallery 页面_(链接:_https://pai.console.aliyun.com/#/quick-start/models)
- 登录 PAI 控制台。
- 在顶部左上角根据实际情况选择地域。
- 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间内。
- 在左侧导航栏选择快速开始 > Model Gallery。
- 在 Model Gallery 页面的模型列表中,单击找到并点击需要部署的模型卡片,例如“DeepSeek-R1-Distill-Qwen-7B”模型,进入模型详情页面。
- 单击右上角部署:目前DeepSeek-R1支持采用vLLM加速部署;DeepSeek-V3支持vLLM加速部署以及Web应用部署;DeepSeek-R1蒸馏小模型支持采用BladeLLM(阿里云PAI自研高性能推理框架)和vLLM加速部署。选择部署方式和部署资源后,即可一键部署服务,生成一个PAI-EAS服务。
- 使用推理服务。部署成功后,在服务页面可以点击“查看调用信息”获取调用的Endpoint和Token,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。
欢迎各位开发者持续关注和使用 PAI-Model Gallery,Model Gallery会不断上线 SOTA 模型。如果您有任何模型需求,欢迎您联系我们。您可搜索钉钉群号79680024618),加入PAI-Model Gallery用户交流群。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。