正文
DeepSeek 系列模型以卓越性能在全球范围内备受瞩目,在各类评测中表现优异,推理性能接近甚至超越国际顶尖闭源模型。2025年2月以来,阿里云人工智能平台 PAI 持续推出围绕 DeepSeek 系列模型的最佳实践,包含快速部署、应用搭建、蒸馏、微调等各个环节,让企业和个人开发者可以在云上高效、灵活地部署和探索 DeepSeek-R1、DeepSeek-V3 等模型。
本文将为您带来“基于 PAI-RAG 构建 DeepSeek 联网搜索+企业级知识库助手服务”解决方案。目前,PAI-RAG 提供全面的生态能力,支持一键部署至企业微信、微信公众号、钉钉群聊机器人等,助力打造多场景的AI助理,全面提升业务效率与用户体验。
使用PAI-RAG搭建DeepSeek+联网搜索的效果展示(本地客户端使用了开源的Cherry Studio):https://cloud.video.taobao.com/vod/G7JwhakRZFhV66o8_zfyJ0IWaaYn2gL7vsRFufnLtKU.mp4
PAI-RAG 构建 DeepSeek 联网搜索+企业级知识库助手服务
在日常对话中,联网搜索功能至关重要,它能够追踪实时热点、获取最新数据,成为您24小时在线的专属AI情报员。
PAI-RAG支持灵活配置“联网搜索”能力,轻松访问和利用实时数据,获得更加精准、全面的搜索结果,让模型突破预训练数据的时间边界,提供时效精准的智能问答服务,全面提升AI应用的效能与可靠性。
“联网搜索”使用了阿里云通用搜索服务API接口,具备实时性强、准确性高、易用性好等特点。无论您是企业用户还是个人开发者,PAI-RAG 都为您打造了一个强大而灵活的AI搜索解决方案,助力实现智能化目标。
Step1:通过PAI-EAS场景化部署大模型RAG对话系统
- 进入EAS控制台(https://pai.console.aliyun.com/?regionId=cn-hangzhou#/sw?path=/eas),点击“部署服务”,选择“部署大模型RAG对话系统”。
- PAI-RAG支持两种部署方式:LLM一体化部署会将LLM和RAG部署在同一EAS服务内,操作更加简单;LLM分离式部署仅会部署RAG服务,在RAG服务中可以自由连接模型服务,灵活性更高。
- 本文以DeepSeek-R1-Distill-Qwen-32B为例,实现RAG+LLM一体化部署。
Step2: 开通网络搜索服务
- 进入阿里云搜索服务开通页(https://common-buy.aliyun.com/?commodityCode=alibababcp_ecosearch_public_cn),按需选择性能规格进行购买,记录下AccessKey和AccessSecret。
Step3:在RAG应用中配置网络搜索功能
RAG服务部署好之后,打开WebUI页面,配置联网搜索功能。
- 搜索引擎选择“阿里云”,表示阿里云的网络搜索服务,填写搜索个数、服务地址、AccessKey和AccessSecret。
- 聊天方式选择“Chat(Web Search)”
Step4:实时联网搜索对话测试
- 联网搜索效果展示:
- 不联网回复效果对比:
PAI-RAG更多企业级能力
- 私域知识库问答
企业用户还可以上传私域知识,借助平台的RAG能力,让DeepSeek大模型“更懂”自身的知识。基于LLM+RAG的技术框架,PAI-RAG提供了多模态、OCR、文本embedding、多路检索召回、重排等能力,来解决知识处理与答案生成的全链路难点,帮助企业更快速、准确地使用大模型搭建RAG应用,提升服务准确度和效率。
- 多模态检索&对话
支持多模态文档的智能解析,集成多模态检索算法,提供多模态的图文回复。
- Agentic RAG
支持内置工具、自定义API工具(查询库存,订单信息)和自定义代码工具,支持多意图分发(检索、工具调用、数据库查询、网络搜索)
- 数据库问答:
对接已有数据库,根据数据库信息自动生成查询、选表选列算法、值检索、查询历史检索、SQL错误自动修复
- OpenAI接口兼容
支持标准OpenAI 兼容接口,无缝对接各种支持OpenAI接口的应用,可以完美对接OpenWebUI,Chatbox,AnythingLLM, Cherry Studio 等大语言模型服务商的客户端,兼容Windows、Mac 和Linux 系统。
- 生态无缝对接
PAI-RAG已支持企业微信、微信公众号和钉钉群聊机器人三种生态模式,轻松实现一键部署PAI-RAG并无缝对接生态应用。
- 内容安全过滤
接入内容安全过滤,为企业用户提供稳定、即接即用、成熟的内容安全解决方案,帮助企业和开发者在复杂多变的互联网环境下快速发现文本、图片等各类风险,提高内容质量和用户体验。
- 支持服务弹性扩缩容和多实例部署
在业务负载出现显著的波峰波谷时,提供自动扩缩容功能。服务能够自动调整实例数量,实现动态管理线上服务的计算资源,从而保障业务平稳运行并提高资源利用率。
- Tracing链路追踪
在部署服务时增加链路追踪功能,为LLM应用提供高质量的埋点能力,并自动上报链路数据。每次调用服务,系统会在链路追踪页签自动生成一条Trace记录,进一步通过Trace数据来评估模型效果。
相关产品wiki
- PAI-RAG是开箱即用的模块化 RAG 开源框架,结合LLM的知识推理能力,为PAI的企业用户提供生产级的 RAG 能力。
PAI-RAG的亮点特性有:
- 丰富的RAG功能:提供文档解析、拆分、embedding、多轮对话、Query改写、FunctionCalling、自动化评估、内容安全、链路追踪等多项原子能力,各模块支持灵活配置和定制开发。
- 全面的企业级能力:前后端采用Kubernetes部署,支持自动容错、弹性扩缩容、请求队列等企业级能力。
- 简单易用的管控台:通过EAS场景化部署,支持分钟级快捷搭建应用,轻松实现一键部署专属AI助手。
- 灵活的大模型选择:用户可以根据自身需求选择大模型,通过Model Gallery部署模型服务,在PAI-RAG中一键接入各种模型。
项目开源地址:https://github.com/aigc-apps/PAI-RAG
PAI-RAG 管控台如图:
- PAI Model Gallery集成了国内外 AI 开源社区中优质的预训练模型,提供了BladeLLM、SGLang和vLLM加速部署功能,帮助您一键部署DeepSeek-V3和DeepSeek-R1系列模型。PAI-RAG支持无缝接入Model Gallery部署的模型。
- 阿里云信息查询服务-通用搜索是专为大模型时代打造最先进的开放域搜索解决方案,提供强大的实时搜索能力,助力大模型应用实现高效、精准的实时问答。PAI-RAG已实现对阿里云通用搜索服务的集成,实现了LLM与联网搜索的无缝对接,使用户能够稳定、高效地实时获取最新信息。
PAI-RAG最佳实践系列
- 大模型RAG对话系统
- RAG集成联网搜索搭建AI智能问答最佳实践
- 基于EAS&Elasticsearch搭建RAG检索增强对话系统
- 基于EAS&Milvus搭建RAG检索增强对话系统
- 基于EAS&RDS PostgreSQL搭建RAG检索增强对话系统
- 基于EAS&OpenSearch搭建RAG检索增强对话系统
- 基于AppFlow集成钉钉与PAI RAG构建AI机器人指南
- 基于AppFlow集成微信公众号与PAI RAG构建智能客服
- 基于AppFlow集成企业微信与PAI RAG构建AI助手
联系我们
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。