AWS 在 GitHub 上为 Amazon Elastic Container Service(Amazon ECS)、Amazon Elastic Kubernetes Service(Amazon EKS)和 AWS Serverless 发布了一套开源的模型上下文协议(MCP)服务器。这些专门的服务器通过为 AI 开发助手(如Amazon Q Developer)提供这些 AWS 服务的实时上下文信息,增强了其能力。
大型语言模型(LLMs)通常依赖通用公共文档,而 MCP 服务器提供当前上下文和服务特定指导,帮助开发者在 AWS 上构建和部署应用时获得更准确的帮助并预防常见部署错误。
Hariharan Eswaran 在 Medium 的博客文章中总结:MCP 服务器的推出旨在为开发者提供跟上现代云原生应用复杂性的工具,无论部署容器、管理 Kubernetes 还是使用无服务器,MCP 服务器都能让 AI 助手像团队成员一样管理基础设施,而不仅仅是聊天机器人。
此外,利用这些开源解决方案,开发者可通过在集成开发环境(IDE)或命令行界面(CLI)中直接利用 AWS 功能和配置的最新知识来加速应用开发过程。其关键特性和优势包括:
- Amazon ECS MCP 服务器:通过使用自然语言配置负载均衡器、网络、自动缩放和任务定义等必要的 AWS 资源,简化了容器化应用到 Amazon ECS 的部署,还辅助集群操作和实时故障排除。
- Amazon EKS MCP 服务器:为 AI 助手提供关于特定 EKS 环境的最新上下文信息,包括最新功能、知识库和集群状态,在整个 Kubernetes 应用生命周期中提供更定制化的指导。
- AWS Serverless MCP 服务器:通过提供无服务器模式、最佳实践和 AWS 服务的全面知识,增强无服务器开发体验,与 AWS Serverless Application Model Command Line Interface(AWS SAM CLI)集成可简化函数生命周期和基础设施部署,还为基础设施即代码决策和 AWS Lambda 的最佳实践提供上下文指导。
该公告详细介绍了使用 MCP 服务器与Amazon Q CLI构建和部署用于媒体分析(在 ECS 上的无服务器和容器化)和 EKS 上的 Web 应用的实际示例,展示了 AI 助手根据 MCP 服务器提供的上下文信息识别必要工具、生成配置、故障排除甚至审查代码的能力。
该公告已获得开发者社区的积极关注,Maniganda 在 LinkedIn 的帖子中表示热情:AI 与 AWS 计算服务的实时交互能力无疑将简化操作并提高效率,期待开源框架的发展及其对 Kubernetes 管理的影响。
用户可访问AWS Labs GitHub 仓库获取安装指南和配置,该仓库还包括将现有 AWS Lambda 函数转换为可由 AI 访问的工具以及访问 Amazon Bedrock 知识库的 MCP 服务器。对于想了解更多关于各个AWS Serverless 的 MCP 服务器、Amazon ECS和Amazon EKS的用户,有深入探讨的博客可供参考。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。