头图

dd6636c8288e0e0e5b4291b1247c982a.png

随着 AI 技术的快速发展,以及 AI Agent 的出现和流行,AI Agent 已广泛应用于业务自动化和流程优化。然而,大模型的核心能力主要集中在逻辑运算层面,要让 AI 更好地解决实际业务问题,还需与企业现有的能力 API 深度结合。APIPark 通过基于 API 的集成和开放管理,平台支持企业快速整合现有的 API 资源,帮助企业高效地将多个大模型与业务系统的 API 无缝集成。

图片

通过深度对接企业业务流程,APIPark 使 AI Agent 能够在更复杂和动态的业务环境中发挥作用,自动调度和管理不同的大模型,提供了更加灵活的定制化智能服务。

对主流 AI Agent 搭建平台,APIPark 同样提供智能调用、流量控制等关键场景功能支持。本文以当前最热门的 AI Agent 搭建平台 Dify 为例,介绍如何快速对接 APIPark,优化 LLM 访问效率,提升模型调用的稳定性和安全性。

图片

Dify 是一个易用的 AI Agent 构建平台,旨在让更多人可以创建可持续运营的原生 AI 应用,提供多种类型应用的可视化编排,应用可开箱即用,也能以后端即服务的 API 提供服务。

准备工作

1.部署 APIPark(本地或云端)

APIPark 部署非常简单,仅需一句命令行即可在 5 分钟内部署完成。您也可以在 Github 上搜索 APIPark 或者直接访问 教程文档 查看部署更详细的教程。

部署命令:curl -sSO https://download.apipark.com/install/quick-start.sh; bash quick-start.sh

注:过程中按照提示进行部署即可,部署完成后将会展示部署信息。

2.配置 AI 大模型

APIPark 支持市面上常见 AI 大模型,包括 Deepseek、OpenAI、Anthropic、AWS Bedrock、Google Gemini等。配置大模型供应商后,你可以选择不同的模型来创建 AI 服务。

进入 「系统设置」在侧边栏中选择「AI 模型」,点击右侧「添加供应商」即可看见弹窗 AI 大模型列表,根据需求选择所需的供应商和 AI 大模型。配置完成后,把「LLM 状态管理」开启,点击「保存」。

图片

每个供应商有不同的配置信息,系统会自动根据你选择的供应商来生成所需的配置信息。
注:配置信息一般可以在供应商的 Open API 管理后台获得,你可以在弹窗左下角找到快速跳转到供应商官网的按钮。

3.创建并发布 AI 服务

进入「工作空间」在侧边栏中选择 「添加服务」创建服务,依次配置目标 AI 服务的基本信息、归属、订阅审核形式等信息,保存完成即可在服务列表处可见新创建的「AI 服务」。

图片

图片

打开该「AI 服务」选择左侧「发布」并配置完成「新建版本」的基本信息即可发布。

图片

图片

当 AI 服务被发布后,在「API 门户」处可见成功上架的 API 。

图片

在 Dify 中接入 APIPark 能力

1.获取集成地址或文件

进入「API 门户」 调用所需的 API 服务。进入 API 服务详情页,然后选择「集成 」。

图片

在该子页面即可「复制 URL」到集成地址到 Dify。如果需要集成的 AI Agent 搭建平台不支持读取 URL 集成,可在右侧 「下载 Json 文件」下载当前 API 服务的 Json 文件替代。

注: 该文件格式为 Openapi 3.0 标准格式。

2.从 URL 导入 API

打开 Dify 主界面,进入「工具」模块,点击「创建自定义工具」。

图片

将上文提到的,在 APIPark 中的所需的 API 服务的 URL 复制粘贴到 Dify 「创建自定义工具」的中的「从 URL 中导入」框,即可自动完成导入。

图片

3.配置鉴权模式

同时,在 APIPark 「工作空间」的「消费者」模块选择目标 API 的「访问授权」,点击右侧「查看」和复制 API Key 。

图片

图片

在 Dify 界面的「鉴权方法」选择鉴权类型为「API Key」,并在下方粘贴所复制的 API Key。

图片

4.测试验证

在「可用工具」右侧可以对 API 接口进行基本测试验证是否成功调用。

图片

测试完成并保存后即可在自定义工具主界面看见从 APIPark 上调用的 API 服务。
图片

5.在 Dify 上使用 API

在 Dify 主界面选择「工作室」打开任意目标应用,在流程节点「工具」栏即可添加 API 。

图片

图片
整体而言,APIPark + Dify 结合为开发者和企业提供了高效、稳定、经济的解决方案,大幅优化了大模型的使用体验。通过 APIPark 接入大模型,相较于直接使用原生 API,有以下优势:

  • 提升业务稳定性:APIPark 平台内置负载均衡功能,可针对多款大模型进行智能调度。当某个大模型发生故障时,系统会自动切换至备用模型,确保服务不中断,有效提升系统的稳定性和可靠性。
  • 清晰的调用成本统计:APIPark 提供详细的调用统计数据,方便用户了解每次调用的资源消耗,帮助企业在使用大模型时更好地管理预算,降低不必要的开支。

借助 APIPark API 开放能力能高效让企业系统已有能力 API 得到有效利用,让 Dify 离企业业务更进一步。

APIPark + Dify 让您从容应对以下场景

🤖 智能客服:快速构建跨模型的智能客服解决方案。企业可以通过 Dify 搭建智能客服助手的自动化应答流程,然后通过 APIPark 接入多个大模型以实现用户量大情况下的负载均衡。此外,借助 APIPark 的未来上线的语义缓存功能可以有效缓存常见问题的回答,进一步降低 AI 应答的成本,同时提高响应速度和效率。

📄 智能工单:企业可以通过 APIPark 和 Dify 的结合,高效实现业务自动化。比如,在智能工单分发场景中,可以通过 APIPark 接入大模型,以及企业原有系统内部的(如合同、票据等)中提取关键数据 API ,再由 Dify 构建分发逻辑,实现数据和AI自动获的完美结合。

🏫 学术平台:在教育和研究场景中,APIPark 和 Dify 的结合能够为学术和教学提供全面支持。通过 APIPark 接入多款大模型,以及现有的文献数据 API ,结合 Dify 提供的灵活的逻辑构建能力,可根据教学需求设计专属的问答流程,教师和学生可以通过智能教学助手获得跨学科的知识点梳理和问题解答服务。

以上,是 APIPark LLM 网关如何快速对接 Dify 的教程,接入其他 AI Agent 搭建平台的操作基本一致。此外,如果您也对 APIPark 未来的功能感兴趣,并有意向参与我们项目的开源共建,请登录 APIPark Github 仓 给我们开源团队提出您宝贵的建议!


虚心的蜡烛
4 声望1 粉丝