——已获知乎作者【小小将】授权转载
近几年,大语言模型(LLM)取得了突破性进展。然而,尽管这些大模型在各种任务中展现出了强大的语言理解与生成能力,也存在一些问题,其中最为突出的是幻觉问题以及知识时效性的问题。
一、幻觉问题
幻觉问题是指大模型在生成文本过程中,可能会输出与真实信息不符甚至完全虚构的内容。这种现象不仅降低了模型输出的可信度,而且在一些关键领域(如医疗、金融、法律等)容易导致误导性决策。与此同时,大模型在知识更新上的滞后性问题也十分明显。
由于大多数大模型的训练数据存在一定的时效性,其在面对最新事件、最新数据时可能无法提供及时、准确的信息反馈。这种知识时效性问题使得模型在处理动态变化的信息时就存在明显局限。
比如我询问 DeepSeek 关于谷歌 Gemini 2.0 模型的发布问题,由于不在它的知识范围内,它的回答就会出现幻觉,出现一些事实性的错误:
但是如果我加上“联网搜索”,它就能够正确回答:
二、如何解决幻觉问题
而这里的“联网搜索”其实就是应用了检索增强生成(Retrieval-Augmented Generation, RAG)技术。 RAG 的核心思想在于:在生成回答之前,通过高效的信息检索系统先获取相关的背景知识和事实数据,再将这些检索到的信息作为生成模型的上下文提示,从而引导生成过程向更加准确、真实的方向发展,减少大模型的幻觉问题。RAG 可以用于构建专业领域的问答系统,一个完整的 RAG 流程如下所示,这里我们可以把专业领域的数据构建成知识数据库,这些知识库数据可以通过检索增强来提供给 LLM 来生成正确的回答。
这里,可以看到一套完整 RAG 系统需要很多组件,不仅涉及到专业的数据处理工具,而且还依赖检索引擎以及检索增强工具,对开发者而言技术门槛比较高。而阿里云 AI 搜索开放平台正是为解决这一痛点而生。平台围绕智能搜索及 RAG 场景,将算法服务以组件化形式开放,涵盖文档解析、向量化、召回排序、大模型服务等全链路能力。开发者无需从零构建基础设施,只需按需选择组件,即可快速搭建高性能、低成本的 RAG 应用。
三、阿里云 AI 搜索开放平台
具体来说,阿里云 AI 搜索开放平台首先包含一套完整的用于处理知识库数据的工具,包括文档解析服务、图片解析服务、文档切片服务以及多语言向量模型。
1、文档解析服务:
可以从 PDF、DOC、HTML、TXT 等格式文档中提取结构化信息,而图片解析服务可以使用多模态大模型或 OCR 能力解析图片数据中为文字信息。
2、文档切片服务:
是基于语义、段落结构以及指定规则对文档进行切分,而多语言向量模型可实现文本向量化处理以用于后面的检索。
当然除了排序服务,平台还提供了:
3、查询分析服务:
可对用户输入的查询内容进行意图识别、相似问题扩展、NL2SQL 处理等,有效提升 RAG 场景中检索问答效果。而且,平台也提供了检索引擎,支持向量检索、文本检索引擎。
4、免费体验:
你可以在阿里云 AI 搜索开放平台体验中心直接体验这些服务,比如这里我使用文档解析服务来解析Qwen2.5 的技术报告:
解析完成后可以文档切片服务对文档进行切分:
然后你可以通过平台的排序服务来进行查询,模型能够输出和 query 相关性更高的内容:
5、多种大语言模型服务:
阿里云 AI 搜索开放平台的另外一大亮点是内置了多种大语言模型服务,包含 DeepSeek 全系模型(含R1/V3及7B/14B蒸馏版本)、通义系列模型(通义千问-Turbo、通义千问-Plus、通义千问-Max 大模型),以及专为 RAG 打造的 OpenSearch-通义千问-Turbo 大模型。
而且,平台最近还新增了阿里最新发布的 QwQ-32B 推理模型,该模型在数学、代码以及部分通用指标上达到 DeepSeek-R1 满血版水平,但是模型尺寸更小(32B vs 671B),性价比更高,在阿里云上,QwQ-32B 输出 token 价格是0.006元/千tokens,远低于 DeepSeek-R1 满血版的0.016元/千tokens。
如果你想要更高并发、更低延迟的推理服务,你还可以将阿里云 AI 搜索开放平台和 ModelScope 中的模型进行独立部署。此外,平台还提供了联网搜索服务,可以作为私有知识库的补充,结合大语言模型给出更丰富的回答。而且阿里云AI搜索开放平台V3.3还集成了数据科学工作台(Data Science Workbench)的功能,支持 notebook,为用户提供了一站式的云端开发环境,将代码编写、调试、运行与阿里云AI搜索开放平台的核心能力无缝结合,大幅降低开发门槛,加速智能搜索应用的构建与验证。
四、如何快速构建企业知识库问答
可以看到,阿里云AI搜索开放平台旨在提供丰富的开箱即用服务来降低开发者构建 AI 搜索系统的门槛。除此之外,阿里云还提供了丰富的企业级 AI 搜索应用,包括 LLM 智能问答、行业语义搜索、日志检索 Severless 等六大个开箱即用、高性价比的场景化产品方案。其中 LLM 智能问答版可以提供一站式开箱即用的检索增强生成(RAG)方案,支持丰富数据格式的快速导入,构建包含对话、链接、图片在内的多模态对话式搜索服务,帮助开发者快速搭建 RAG 系统。这里给出一个基于 LLM 智能问答版来快速构建企业知识库问答,首先要创建一个 LLM 智能问答版实例:
然后进行企业知识库配置,可以基于文件导入,也可以基于网页链接导入以及网站导入:
导入企业知识库数据后,如果能在数据配置界面的数据查询栏下查看导入的文档,此时说明就成功构建了一个企业专属知识库。
点击左侧导航栏的“问答测试”选项,可以快速测试该知识库的问答效果。在对话框中输入与企业相关的问题,模型会从知识库中检索相关信息,并基于这些信息生成相应的回答。
所以你看到,使用 LLM 智能问答版服务可以非常快地来构建一个专属的企业级知识库问答系统。
最后我想说,RAG 技术是大模型落地成败的关键:它通过实时检索外部知识,有效解决“幻觉”和知识陈旧问题。而阿里云AI搜索开放平台将 RAG 全链路拆解为“即插即用”的组件。开发者无需懂算法就可以像拼乐高一样调用文档解析、多模态理解、QwQ 模型等服务来快速构建专业的基于 RAG 的 AI 系统。从技术探索到价值创造,阿里云正重新定义企业拥抱 AI 的“最优路径”。感兴趣的,不妨立即行动去阿里云 AI 搜索开放平台去体验一把。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。