大模型(LLM)在数据分析领域潜力巨大,但在实际落地中,企业面临实时数据接入、动态调用工具链、上下文记忆短和跨系统数据整合等挑战。MCP(模型上下文协议)提供了很好的解决思路。通过标准化接口架构,将 AI 模型的决策逻辑与外部资源解耦,形成 "智能大脑 + 外接四肢" 的协同模式,旨在解决大模型与外部工具、数据源的集成难题。LLM通过MCP接入各种数据分析工具或者数据仓库能力时,即可构建跨数据源、多步骤分解的数据分析 Agent。阿里云实时数仓 Hologres,联合函数计算FC 推出「Hologres+函数计算 FunctionAI +Qwen3 构建企业级数据分析 Agent」方案,帮助用户快速对接MCP,高效跨越企业级数据分析 Agent 构建困境。

构建企业级数据分析 Agent 的困境

面对企业场景,Agent 会使用服务化的部署模式。此时往往会面临如下问题。

  1. 部署模式困难:现在的 Stdio 的模式需要和 Agent 部署在一起,但是这样部署 MCP Server 和 Agent 的负载无法隔离,在高并发的时候会互相影响。
  2. 弹性困境:MCP 工具调用流量呈现显著的非稳态特征以及"脉冲式"波动,比如智能客服系统的峰谷效应非常明显,传统虚拟机部署造成大量资源浪费;

Hologres+函数计算 FunctionAI +Qwen3 构建企业级数据分析 Agent

对比 Stdio 的模式,企业级服务更加适合的模式是 Server-Sent Events(SSE)模式,SSE 模式是 MCP 服务器与客户端交互的一种方式,它利用 SSE 协议实现服务器向客户端的单向实时数据推送。客户端通过连接到服务器的特定 URL(如 http://localhost:8080/sse)来监听事件,服务器则以 SSE 格式发送更新,如工具定义、工具调用结果等。主要优势:

  • 实时性高:服务器能即时将更新推送给客户端,无需客户端频繁请求,确保客户端及时获取最新信息,在数据变化频繁的场景中能提供及时的反馈。
  • 解耦性好:服务器和客户端可以独立运行,客户端可随时连接到服务器,多个客户端能灵活地连接、使用和断开与服务器的连接,不受彼此干扰,提升了系统的灵活性和扩展性。
  • 基于标准协议:SSE 基于 HTTP 协议,不需要额外的协议支持,易于实现和部署,同时利用了 HTTP 的广泛兼容性,能在多种环境中运行。
  • 轻量级与简单易用:SSE 本身实现简单,客户端使用 JavaScript 的 <代码开始> EventSource < 代码结束 > 对象就能接收服务器推送的事件,降低了开发难度和成本。
  • 自动重连机制:客户端在连接断开时会自动尝试重新连接服务器,保证数据传输的连续性,减少因网络波动等原因导致的数据丢失或中断。

所以对于服务化的 Agent 更加适合的模式应该是使用 SSE 模式连接。

面对这种场景,Hologres 和函数计算 FC 深度合作,推出 FunctionAI Hologres MCP Server 一键部署,生成一个托管的支持 SSE 模式的 MCP Server,这种模式有如下优势:

  1. 使用 Serverless 模式部署服务,天然的事件驱动模型,提供毫秒级弹性能力、按量付费、安全沙箱的运行时环境,完美解决了云上托管对于性能、成本、安全的需求;
  2. 提供 Bearer Token 的鉴权,服务部署在 VPC 内,提供企业级安全能力。
  3. 提供基于函数角色的访问控制能力,无需输入用户AK/SK就能实现云产品安全访问,提升数据安全性。

如何通过 Hologres+函数计算FunctionAI+Qwen3构建服务化数据分析 Agent

接下来,我们以 ModelScope 的 MCP Playground 为例子,构建服务化数据分析 Agent

环境准备

启动 MCP 之前,请确保已经有一个正在运行的 Hologres 实例,创建实例可以参考手册

使用 FunctionAI 一键部署 MCP Server

  1. 使用Hologres MCP Server 模版一键部署

  1. 填写对接的实例和数据库,选择登陆 Hologres 实例的 RAM Role.

  1. 查看部署进度

  1. 部署完成后,即会生成 sse 的链接,和 Bearer Token

  1. 在 Hologres 参照用户管理手册,对于指定的 RAM Role,将用户加入Hologres实例,然后根据DB管理文档授予 RAM Role 对应的权限。

与 ModelScope 集成

登陆 ModelScope 的 MCP Playground

在配置中加入如下 MCP Server 配置信息

{
    "mcpServers": {
        "remote-server": {
            "type": "sse",
            "url": "<sse_enpoint>",
            "headers": {
              "Authorization": "Bearer <Bearer Token>"         
            } 
        }
    }
}

模型选择:通义千问3-235B-A22B

点击保存配置

数据分析体验

下面的例子中,已经在 Hologres 中导入了 TPC-H 的样例数据。TPC-H是一个标准测试集,它模拟了一个商户的销售(订单)信息系统。

在 ModelScope 的 MCP Playground 中我们提出一些问题。

查看 public schema 下有哪些表?

点击链接查看视频:https://cloud.video.taobao.com/vod/ldy4vIplRljnxXJMbDiGUpX53S...

查看1994年各个国家的订单数量

点击链接查看视频:https://cloud.video.taobao.com/vod/C21YMGTwuNajMbUI8H-qUWmS_f...

拓展阅读

Hologres 成为MCP官方集成服务

Hologres 是阿里云自研一体化实时湖仓平台,通过统一数据平台实现湖仓存储一体、多模式计算一体、分析服务一体、Data+AI一体,无缝对接主流BI工具,支持OLAP查询、即席分析、在线服务、向量计算多个场景,分析性能打破TPC-H世界记录。Hologres对接标准的MCP协议,通过与众多支持MCP的平台联动,可以构建跨数据源、多步骤分解的数据分析Agent,解决LLM在数据预处理、可视化解读和科学推理环节存在的系统性缺陷。同时,由于Hologres具备高性能数据分析、湖仓一体数据分析的能力,可以快速输出数据结果,并与湖仓的历史数据进行联合分析,极大简化分析人员的分析流程,提高分析效率。

Hologres已成为MCP官方集成服务:https://github.com/modelcontextprotocol/servers

通过Hologres 进行数据分析的优势:

  • 实时数据中枢:通过 MCP 管道实现Hologres与 API / 数据库 / 物联网设备等多源数据毫秒级接入,同时,Hologres作为高性能实时数仓,在Agent的逐步分解分析时,输出结果更快。
  • 湖仓数据加速:支持Agent通过Hologres直接对MaxCompute、OSS等湖仓数据访问,无需频繁搬运数据,MaxCompute透明加速性能提升10倍。
  • 智能数据工厂:Hologres 实时数据库自动完成数据清洗、标准化与元数据管理,预处理效率提升 85%
  • 对话式分析引擎:LLM 直接调用实时数据接口,支持自然语言提问生成动态可视化报告,响应时间 < 2 秒
  • 资源隔离与降本:Hologres支持秒级扩缩容,Agent数据分析资源可以与数据生产系统隔离,让分析成本降低 30%。

函数计算:云上托管MCP服务的最佳运行时

阿里云函数计算 FC 作为阿里云 Serverless 计算平台, 提供零改造免运维、轻量隔离、秒级/毫秒级弹性、多AZ自动容灾的运行时能力。开源 MCP Server 一键托管到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,Stdio 的 MCP 可零改造转为 SSE。产品优势如下:

  • 弹性扩缩与按需计费:MCP 服务天然适配 Serverless 的事件驱动模型。例如当 LLM 发起数据库查询时,函数计算即时冷启动执行 SQL 解析,响应完成后立即释放资源。实测数据显示,这种模式相比常驻容器节省 83% 的计算成本。
  • 安全沙箱与零信任架构:Serverless 的临时执行环境完美契合 MCP 服务的安全隔离需求。每个 MCP 请求都在独立的上下文中处理,执行完毕后自动销毁实例,消除传统常驻服务的上下文残留,降低数据泄露风险。
  • 生态集成与敏捷交付:函数计算 FC 内置 MCP 运行时。开发者通过控制台可直接部署预置的 MCP 模版,如函数计算的 "amap-maps-mcp-server" 模版可在 30 秒内完成和高德地图的服务对接。

函数计算 FunctionAI MCP: https://cap.console.aliyun.com/explore?lang=MCP+Server

通义大模型-Qwen3

Qwen是阿里巴巴集团Qwen团队研发的大语言模型和大型多模态模型系列。无论是语言模型还是多模态模型,均在大规模多语言和多模态数据上进行预训练,并通过高质量数据进行后期微调以贴近人类偏好。Qwen具备自然语言理解、文本生成、视觉理解、音频理解、工具使用、角色扮演、作为AI Agent进行互动等多种能力。

最新版本Qwen3有以下特点:

  • 全尺寸稠密与混合专家模型:0.6B, 1.7B, 4B, 8B, 14B, 32B and 30B-A3B, 235B-A22B
  • 支持在思考模式(用于复杂逻辑推理、数学和编码)和 非思考模式 (用于高效通用对话)之间无缝切换,确保在各种场景下的最佳性能。
  • 显著增强的推理能力,在数学、代码生成和常识逻辑推理方面超越了之前的 QwQ(在思考模式下)和 Qwen2.5 指令模型(在非思考模式下)。
  • 卓越的人类偏好对齐,在创意写作、角色扮演、多轮对话和指令跟随方面表现出色,提供更自然、更吸引人和更具沉浸感的对话体验。
  • 擅长智能体能力,可以在思考和非思考模式下精确集成外部工具,在复杂的基于代理的任务中在开源模型中表现领先。
  • 支持 100 多种语言和方言,具有强大的多语言理解、推理、指令跟随和生成能力。

如果想体验Demo中Hologres的相关能力,欢迎在阿里云官网搜索Hologres进行免费试用。


阿里云大数据AI
12 声望11 粉丝

分享阿里云计算平台的大数据和AI方向的技术创新、实战案例、经验总结。