解密企业级大模型智能体Agentic AI 关键技术:MCP、A2A、Reasoning LLMs-企业级大模型智能体关键技术
从今天开始,我们将系统地讲解企业级大模型智能体的所有关键技术、落地的最佳实践,以及众多大型项目。谈及企业级大模型智能体,我相信大家尤其是从去年9月,即2024年9月开始,接触到了越来越多与之相关的技术,包括很多框架,例如langchain、langgraph、crewAI 。当然,最近大家可能听说了很多诸如DeepSeek MCP甚至A2A相关的技术。大家肯定也在使用很多不同的模型,比如直接使用国内的一些模型,或者国外的OpenAI;当然,你可能也会进行模型的一些微调或对齐,比如使用Llama等等。当我们讨论企业级大模型智能体时,会面临这么多技术,而且这些技术处于不同的维度,在基础模型的优化调优方面、框架方面、协议方面等诸多不同维度,每个维度又存在着众多技术。
那我们具体要解决的根本性问题是什么呢?我相信这是大家参加这个课程,或者从事大模型智能体相关工作,无论是应用层面、整个系统平台级别,还是基础设施层面都关心的问题。什么是基础设施层面?例如我最近为一家美国机构提供技术咨询服务,这家机构是定制大模型的。什么是定制大模型呢?
你可能有一个已有的开源模型,比如DeepSeek R1或者Llama的特定模型。他们的主要业务是让已有的这个模型服从于具体专业领域的业务逻辑,也就是说要控制它的行为。从这个视角来看,从他们的角度讲,做的就是基础的infrastructure级别的工作。当然,这是从模型的视角去考虑的,当我们从模型视角考虑这个infrastructure时,它肯定存在相对关系,其上层就是应用级别。当我们拥有这么多不同层面的技术时,在企业落地的环境中,像我刚才提到的这家机构,他们告诉我面临的最大问题就是如何把控控制模型行为这个关键点。当然,他们有很多具体的已有尝试,包括成功的尝试,或者一些不太成功的尝试。然后他们可能会依次迭代自己的产品,但无论是从基础的infrastructure级别,还是像LangGraph这个框架,或者我们今天看到的MCP以及A2A,以及在金融领域、医疗领域等的应用 。根据我过去这么多年的经验以及在硅谷与各行各业的交流,因为硅谷在信息分享、技术交流和商业协作方面是一个非常理想的地方,每天都有很多技术信息共享。我发现无论是什么层面、什么复杂度、什么领域的大模型智能体,要实现的终极目标无非是三点。第一点就是大模型智能体的行为是可控的,也就是controllability,即这个行为的方向、模式,甚至它产出的结果你能否控制或者可以复制,这是第一个最重要的基本点。
第二个点就是它必须拥有灵活性。因为当我们谈论大模型智能体的时候,很多时候我们要么是用大模型智能体的技术升级已有的业务,要么是基于大模型智能体技术或者受这技术的启发来开展一个新的业务。但无论是哪一种情况,当然可能也有其他情况,你都会涉及一个很关键的点,这关键点就是你会影响整个公司已有的系统,而不是仅仅把它作为一个功能(features)级别来对待,所以它会影响很多层面。但由于大模型智能体本身存在很多问题,比如大家都知道的大模型幻觉等问题,还有out of distribution之类的问题,这些导致了它的不可靠性。这种不可靠性加上它对整个系统不同层面的影响,所以这个时候必须让我们整个基于大模型的智能体和整个agents AI系统能够具有足够的灵活性。
举个例子,假设你有一个大模型智能体,它要自动帮助用户下单购买商品。表面看上去可能很简单,用户登录进去浏览一些商品,然后发现喜欢的特定商品并下单等等。但下单这个过程其实非常复杂,这里面包括很多安全管理层面的内容,另外一方面也涉及库存等等,每一步都有可能出现问题。所以大模型智能体本身必须保证足够的灵活性,尤其是在现实场景中,例如库存不存在的情况下,该如何处理,这个时候就必须保持足够的灵活性。
第三个方面也是最为重要的,在前面第一步和第二步的基础之上,就是我们所说的intelligence。或者从比较宏观的角度来讲,大家所说的AGI(通用人工智能),或者我们说的super human intelligence(超人类智能) 。但我觉得从企业级环境的角度,从使用大模型智能体或者落地大模型智能体产品的角度来讲,更多的可能是垂直(vertical)级别的,也就是在垂直领域中的super human intelligence。但无论是哪一种情况,甚至包括做一个很小的application,这里面都会涉及推理。因为我们很多时候在使用大模型的时候,都是在使用它所谓加引号的推理能力。
当然,由于新一代的技术,尤其是以DeepSeek R1,还有GPT o1系列,比如O3等为代表,它们代表了新一代的大模型技术,我们称之为reasoning large language models。这类模型不仅本身具有自我思考或者推理能力,而且这种思考和推理能力相比之前的其他模型要好很多。另外还有一个非常重要的点,就是它能够随着时间的推移不断地自我学习进化。
所以我们说大模型智能体的controllable(可控性)、flexible(灵活性),还有self evolving(自我进化)这三个方面,构成了我们做大模型智能体最重要的三个维度。无论我们使用什么技术,无论做什么层次的系统或者应用,在工程(engineering)生产环节,或者即使不在生产环节,在做架构设计等等,任何与大模型智能体相关的工作,这三个维度都是驱动力因素,或者反过来说是起控制作用的因素,你也可以从一个更加积极(positive)的角度去理解,它们支撑着大模型智能体成功落地的三大核心维度。
所以我们整个课程分为两大部分。第一部分是系统级别的课程,我们会把大模型智能体方方面面的技术、源代码以及一些大型项目,都抽丝剥茧、细致透彻地从企业级的角度为大家讲解。这个部分的内容大约有120个小时,所有内容会在2025年5月21号前交付完成。大家购买我们的课程后,就可以立即学习这120个小时左右的视频内容。这120个小时的视频内容涵盖了大模型智能体在企业级环境下的所有关键技术、关键技术背后的算法、算法的实现,以及一些重要典型的企业级项目的方方面面。这是我们要分享的第一个层面。第二个层面是在这大约120个小时之后,时长也有可能超过120个小时。
因为随着大家报名,如果有特别感兴趣的方向,希望我们补充内容,我们都会进行补充,所以内容只会增多不会减少。
之后每周一个大型项目,分为两个层面。第一个层面是周末会有2到3个小时的直播,讲解大型项目最本质、最核心的部分,当然所有讲解都是基于源码和具体的内部技术、算法实现的角度。另外一部分是在直播前,每个项目基本上会给大家发将近10个小时的录屏,讲解项目每一行代码以及背后的所有算法、原理等等,所有内容都是基于代码维度进行讲解。因为在大家学习了将近120个小时的基础内容之后,源代码对于项目学习来说是非常重要的部分。我们也会特别强调源代码,也会从调试等角度跟大家分享工程落地级别的大型大模型智能体的很多细节。
我们今天首先从一个相对宏观的角度跟大家讨论大模型智能体(agents AI)的关键技术,主要是MCP、A2A还有reasoning large language models。我们整个课程是不断迭代式推进的。所谓迭代式,首先是从整个技术体系的角度告诉大家有哪些关键点。当大家看到MCP、A2A和reasoning large language models这些概念时,我相信大家可能立即会联想到很多其他技术,包括我一开始谈到的一些技术。我之所以讲这三个技术点,一方面是因为从企业级产品落地的角度,它们都有着不可或缺的战略性作用;另一方面,围绕它们会展开很多内容。由于我们课程会不断迭代,这就相当于看一张图片,开始只能看到模糊的全局,但随着迭代推进,会看得越来越清晰,像素分辨率也越来越高。
在探讨企业级大模型智能体时,最终聚焦于三个要点:可控(controllability)、灵活(flexibility),以及持续自我学习与进化的能力(self evolving),这三者共同构成了 agents AI 系统的关键特质。
为什么这如此重要?这背后有着根本性的底层逻辑。当我们讨论大模型时,常常会提到一幅示意图。
之所以提及它,是因为这幅图揭示了大模型存在的诸多问题,同时也展现了解决这些问题的潜在技术与最佳实践。相信大家使用过 DeepSeek、国内各类大模型产品,或是 ChatGPT 等,都对此有所体会。
从本质上来说,大模型的任何输出(response 或 output)都带有 “幻觉” 属性。这是因为在训练过程中,大模型主要基于语言学和概率统计原理,将海量语料中的信息进行重新组织与存储。目前我们讨论的大模型,大多基于 Transformer 结构,更确切地说,是以 GPT 为核心范式的模型体系。
在学习研究过程中,大家如果想和同行进一步交流,或遇到专业问题想进一步探讨,可通过以下方式建立联系:
微信:NLP_Matrix_Space 或 NLP_ChatGPT_LLM
电话:+1 650-603-1290
邮箱:hiheartfirst@gmail.com
本文由博客一文多发平台 OpenWrite 发布!
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。