本文详细介绍了如何使用LangStudio和Qwen3构建基于RAG和联网搜索的AI智能问答应用。该应用通过将RAG、web search等技术和阿里最新的推理模型Qwen3编排在一个应用流中,为大模型提供了额外的联网搜索和特定领域知识库检索的能力,提升了智能回答的效果,较少了幻觉。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。

背景信息

Qwen3

作为Qwen 系列最新一代的大语言模型,提供了一系列密集(Dense)和混合专家(MOE)模型。基于广泛的训练,Qwen3 在推理、指令跟随、代理能力和多语言支持方面取得了突破性的进展,具有以下关键特性:

  • 独特支持在思考模式(用于复杂逻辑推理、数学和编码)和 非思考模式(用于高效通用对话)之间无缝切换,确保在各种场景下的最佳性能。
  • 显著增强的推理能力,在数学、代码生成和常识逻辑推理方面超越了之前的 QwQ (在思考模式下)和 Qwen2.5 指令模型(在非思考模式下)。
  • 擅长 Agent 能力,可以在思考和非思考模式下精确集成外部工具,在复杂的基于代理的任务中在开源模型中表现领先。
  • 支持 100 多种语言和方言,具有强大的多语言理解、推理、指令跟随和生成能力。

LangStudio

LangStudio是依托阿里云PAI平台核心能力构建的面向企业级用户的一站式LLM大模型应用开发平台,它提供了灵活的可编程、评测和调试能力,帮助开发者快速构建端到端的AI应用。在智能问答应用方面,LangStudio连通了离线知识库构建和在线应用开发两条链路,帮助用户轻松跨越从demo到生产的鸿沟。

通过Qwen3与LangStudio结合,既可以发挥SOTA LLM优秀的推理能力,也可以发挥平台产品在流程编排、开发调试、权限管控等方面的优势,帮助客户高效的构建适合生产部署的智能问答应用,在效果和成本上达到最好的平衡。

具体地说,本方案具有以下优势:

  • 精准回答:通过RAG从知识库中提取领域专业知识,结合实时网络数据补充最新信息,最大限度提升回答准确度、减少幻觉。
  • 灵活扩展:开发者可使用自定义模型和自定义知识库,并能灵活修改应用流DAG构成,以满足自身特有的业务需求。
  • 安全可控:LangStudio背靠阿里云PAI平台,通过将模型服务、知识库等放在用户私有网络中,并结合阿里云精细化的权限管控体系,达到最大程度的数据安全。

前提条件

  • LangStudio向量数据库连接,支持使用向量数据库-Milvus/开源Faiss。若您希望使用Milvus数据库,您需要先完成Milvus数据库的创建,详情请参见创建Milvus实例实例管理

说明

Faiss通常用于测试环境,无需额外创建数据库即可使用。在生产环境中,建议您使用Milvus数据库,支持处理更大规模的数据。

LangStudio 部署步骤

步骤一:Model Gallery部署Qwen3模型及Embedding模型设置

1.1 部署Qwen3大模型

  1. 进入PAI控制台 > Model Gallery,选择 大语言模型 场景。

  1. 根据业务场景选择部署Qwen3模型,此实践中选择Qwen3-8B
  • 以下是Qwen3系列不同模型的建议配置信息

  • 以部署Qwen3-8B为例,以下状态表示部署正在进行中:

  1. 单击查看调用信息,记录部署后的服务访问地址(base_url)及API Token(api_key)。

1.2 部署Embedding模型

  1. PAI控制台 > Model Gallery下,选择 Embedding 场景,部署 bge-m3通用向量模型(与Qwen3兼容性最佳)。
  2. 记录服务地址及Token,用于后续知识库索引构建。

步骤二:LangStudio配置服务连接

2.1 创建连接-Qwen3模型服务

  1. 通过 PAI控制台 > 进入LangStudio >连接 > 模型服务,单击新建连接。 。
  2. 关键参数:

模型名称Qwen3-8B(需与部署名称一致)。

服务提供方:选择 PAI-EAS模型服务,自动显示部署后的base_urlapi_key

2.2 创建连接-Embedding模型

  1. 通过 PAI控制台 > 进入LangStudio > 连接 > 数据库
  2. 选择已部署的bge-m3模型,配置服务地址及密钥。

2.3 创建连接-联网搜索IQS

  1. 通过 PAI控制台 > 进入LangStudio >连接 > 自定义连接
  2. 填写IQS的api_key,名称设为IQS_Conn。

步骤三:构建知识库索引

  1. 进入LangStudio > 知识库索引,单击新建知识库索引
  2. 关键配置:

数据源OSS路径:填写知识库语料的OSS路径(如oss://my-bucket/rag-data/)。

Embedding模型:选择步骤1.2中创建的bge-m3连接

向量数据库:生产环境选择 向量数据库-Milvus,测试环境选择Faiss。

  1. 启动索引构建,等待知识库构建任务完成。

步骤四:开发Agent应用流 & 调试与优化

4.1.开发Agent应用流

  1. 进入LangStudio > 新建应用流
  • 模板选择 “基于Web搜索和RAG的聊天助手”

  1. 关键节点配置:

节点-知识库检索

  • 索引名称:选择步骤三中创建的知识库。
  • Top K:建议设置为5(根据知识库规模调整)。

节点-阿里云IQS-联网搜索

  • 连接:选择IQS_Conn

节点-大模型节点

  • 模型连接:选择步骤一的Qwen3模型服务。
  • 系统提示词模板:可自定义,例如:

基于以下知识库内容和网络搜索结果,请用中文专业且简洁地回答用户问题:

  • 知识库内容:{knowledge}
  • 网络搜索结果:{web_results}

-用户问题:{question}

4.2. Qwen3 思考模式切换 (快思考与慢思考)

擅长 Agent 能力的Qwen3,可以通过LangStudio的应用流,在思考和非思考模式下切换思考模式,将复杂的基于Agent开发任务中在LangStudio平台灵活应用。

4.3. 调试与优化

  1. 运行测试:
  • 输入测试问题(如“最新科创板上市规则有哪些变化?”),观察模型生成的回答质量。
  • 运行完成后,可通过查看链路功能,分析Qwen3大模型整合RAG检索结果与网络搜索的结果相关性。
  1. 优化策略:
  • 知识库增强:若回答缺乏领域细节,扩充知识库语料并重建索引。
  • 搜索过滤:在IQS中设置time_period参数,限定搜索时间范围(如past_year)。
  • 提示词调优:增加格式约束(如“分点回答”“引用来源”),提升结果可读性。

步骤五:模型服务部署与API调用

5.1.生产部署:

  • 在LangStudio > 应用流页面单击右侧-部署,选择新建服务> EAS资源组。
  • 资源分配:建议至少2实例(HA),配置具备公网访问的VPC。

5.2. PAI API调用:

  • 请求示例(Python):

import requests 

endpoint = "YOUR_EAS_ENDPOINT" 

payload = { 

"question": "解释量子计算对金融风险建模的影响", 

"history": [] # 支持多轮对话 

} 

response = requests.post(endpoint, json=payload, headers={"Authorization": "Bearer YOUR_API_KEY"}) 

print(response.json()["answer"]) 

步骤六:监控与维护

  • 应用流调试:使用LangStudio应用流中的运行对话框,输入所需查询的问题,观察查询结果内容。
  • 日志查看监控:通过PAI-EAS控制台监控服务请求量、延迟及错误率。
  • 知识库更新:定期上传新语料到OSS,触发增量索引构建。
  • LLM模型升级:关注Qwen3版本更新,通过Model Gallery部署新版本并在LangStudio中方便的切换。

附录:常见问题

  • Q:网络搜索结果不相关?
  • A:可通过结果内容附带的“查询链路”来查看Tracing联网信息是否正确。

相关链接

通过以上步骤,您可快速使用LangStudio构建基于Qwen3的高效增强RAG+联网搜索的智能Chat Agent助手,满足专业场景需求。


阿里云大数据AI
12 声望11 粉丝

分享阿里云计算平台的大数据和AI方向的技术创新、实战案例、经验总结。