百度百舸·AI异构计算平台已支持快速部署DeepSeek-V3、DeepSeek-R1及其蒸馏的Llama、Qwen等小规模dense模型。您可以登录百度百舸平台快速部署DeepSeek系列模型体验模型效果。

01 开通轻量计算实例

开通一台H20(ebc.lgn7t.c208m2048.8h20.4d)规格的计算实例并添加到百度百舸·AI异构计算平台。

图片

02 部署vLLM

在百度百舸平台的左侧导航中选择「工具市场」页面,部署工具vLLM。

图片

03 模型推理

vLLM部署成功,登录实例下载模型并启动vLLM服务,安装WebUl客户端。

图片

发送请求开始对话。

图片

04 各系列模型的推荐配置清单

图片

在完成满血版DeepSeek模型的快速部署后,百度百舸·AI异构计算平台还能为这些在线服务提供全生命周期管理、自研框架推理加速、推理资源碎片整理等能力。在保障服务稳定性的同时,有效降低推理成本并提升推理性能。

访问百度百舸页面https://cloud.baidu.com/product/aihc.html,感受服务稳定性与成本效益的双重提升!

————END————

推荐阅读

首日调用客户破1.5万!DeepSeek-V3/R1上线背后的超低推理成本技术揭秘

唤醒 AI 算力,专有云 ABC Stack 面向企业级智算平台的 GPU 提效实践

百度APP iOS端磁盘优化实践(上)

对话AI原生|比帮你写代码更爽的是:让Agent来打工

0 Token 间间隔 100% GPU 利用率,百度百舸 AIAK 大模型推理引擎极限优化 TPS


百度Geek说
246 声望53 粉丝