头图

人工智能(AI)的热度持续攀升,行业的焦点正从单纯的模型训练转向如何高效部署模型以实现实际应用——这正是AI推理技术的核心价值所在,即利用训练完成的AI模型生成预测与洞察。Akamai始终致力于构建未来的蓝图:不仅让AI推理更易于获取,还要确保其具备高性能、可扩展性和成本效益,并能够在全球范围内进行边缘部署。

随着Akamai云推理服务
(Akamai Cloud Inference)的推出,我们向"打造全球分布最广的云计算平台"的愿景又迈出了重要一步,为AI及其他高吞吐量、低延迟的工作负载提供强有力的支持。这项服务汇聚了我们近期的多项关键技术突破,赋能开发者更高效地构建和交付边缘原生应用与AI解决方案。我们深刻认识到,虽然集中式云架构擅长处理大规模AI训练任务,但在需要持续按需推理和超低延迟响应的全球化场景中,常常难以胜任。

Akamai基于云原生技术的战略布局,致力于构建更快速、更具成本效益的AI推理云服务。其核心架构建立在Akamai Cloud——全球分布最广的公有云平台之上,借助完整的云产品矩阵和覆盖全球的网络设施,为AI推理提供了独特的优势。Akamai云推理服务采用云原生、可扩展的Kubernetes架构,结合Linode Kubernetes Engine
(LKE)与Akamai应用平台,可实现AI应用和推理场景的快速部署。

Akamai解决方案的核心优势

• Akamai的新解决方案为平台工程师和开发人员提供了构建和运行AI应用程序及数据密集型工作负载的工具,能够将计算资源更接近终端用户,从而提供3倍的吞吐量提升,并将延迟减少最多2.5倍。
• 与传统的传统超大规模云架构相比,使用Akamai的解决方案,企业可以在人工智能推理和代理人工智能工作负载上的成本可节省高达86%。
• 从轻量级微调所需的最新AMD CPU,到强大的加速计算选项,如NVIDIA GPU
NETINT视频处理单元
(VPU),我们提供了强大计算能力,能够满足用户在AI推理方面的独特需求。
• 我们与VAST Data
的合作为实时数据提供了简化的访问,这对加速推理相关任务至关重要。我们的服务还配备了高度可扩展的对象存储,并与Aiven和Milvus等领先的向量数据库供应商进行集成,支持增强生成(RAG)任务。
• 通过我们的云原生Kubernetes平台,包括全新的LKE-Enterprise和应用平台,我们使AI应用容器具有高度的可扩展性和可移植性,消除了供应商锁定和复杂性,优化了速度、成本和安全性。
• 与领先的WebAssembly(WASM)平台Fermyon
的合作,Akamai使开发人员能够直接从无服务器应用程序在边缘执行轻量级推理,推动低延迟的应用程序。

我们的全球分布式网络覆盖超过4,100个节点,确保从云端到边缘终端的计算资源能够实现低延迟访问。这种架构组合让我们能够在全球任意规模场景下,都能够提供业界领先的低延迟和高吞吐量AI推理服务。

这项创新不止于技术突破,其核心价值是为企业提供实际可用的AI解决方案。例如,在零售领域,通过实时物体检测和识别技术提升零售结账体验,加速交易速度的同时降低出错率;在智能汽车领域,基于边缘推理的的车载语音助手,为导航优化和车控功能提供即时且高度相关的反馈。这些只是Akamai Cloud Inference如何驱动真实商业价值的生动案例。
展望未来,我们的愿景非常明确:构建未来的AI推理方式,以最高的吞吐量和最低的响应时间,帮助企业快速高效地提供AI推理服务。当行业越来越意识到集中式架构难以满足边缘AI的严苛要求时,Akamai处于有利的增长态势中,能够帮助客户扩展AI项目,将数据转化为更接近数字触点的行动。欢迎进入由Akamai Cloud赋能的AI推理未来。


Akamai
1 声望1 粉丝

Akamai 支持并保护网络生活。全球各大优秀公司纷纷选择 Akamai 来打造并提供安全的数字化体验,为数十亿人每天的生活、工作和娱乐提供助力。 我们横跨云端和边缘的计算平台在全球广泛分布,不仅能让客户轻松开发...