8 月 2 日,云原生开源开发者沙龙 AI 原生应用架构专场在上海举办,现场围绕 AI 应用开发和 Agent 编排、API 网关、可观测、智能编程、消息队列等视角分享了我们的开源成果和进展,以及落地实践。以下为分享回顾。

关注公众号,后台回复:0802

免费获得上海站讲师 PPT 合辑

精彩回顾

① 分享主题丨AI 原生应用架构探索和基于 Java Spring AI 的高质量答疑机器人构建实战

国内模型已经拥有足够的互联网数据,未来竞争的核心在于结合私域数据的应用探索。AI 已经越来越成为一个趋势。所有的应用都应该结合应用重新思考。本次活动阿里云开源办公室负责人王晶昱(沈询) 通过“无疑”系统的介绍及效果演示,向大家分享了在 AI 领域的选择和积累经验, 展开 AI 时代下,作为技术人能够做点什么?应该做点什么?的讨论,引发了现场技术人的强烈共鸣。

② 分享主题丨AI 时代如何做 API 网关选型

AI 应用流量具备长连接、高 RT、大带宽的特征,十分考验接入层网关的性能。本次活动 Higress 社区 Maintainer 张添翼(澄潭) 从 AI 网关的架构分层、AI 流量带来的挑战、传统流量网关的能力与 Higress AI 原生的 API 网关的比对三个方面分享选型 AI 网关应该考量哪些能力?Higress 作为承载阿里内部通义千问等众多 AI 场景的 API 网关,作为 AI 网关有何独到之处。

③ 分享主题丨基于 Opentelemetry 的大模型应用可观测

在基于大型语言模型(LLM)的应用日益普及的背景下,仅仅专注于延时和错误的传统可观测能力已无法满足这些应用的复杂性需求。阿里云云原生研发工程师李艳红(彦鸿) 近一年来针对 LLM 应用的特点进行了深入研究,专注 LLM 的提示和响应追踪,增强了知识回忆和意图识别的准确性。在本次活动中,彦鸿分享了研究成果和实践经验,并展示如何将理论概念发展成可扩展、高效的实用工具。此外还结合阿里云的人工智能平台与行业专家合作经历,以及为通义千问和通义灵码定制的匹配 LLM 应用特性的工具和流程,为大家展示如何将理论概念发展成可扩展、高效的实用工具。

④ 分享主题丨Spring Cloud Alibaba AI,面向 Java 开发者的 AI 应用开发实践

本次活动 Apache Member 刘军深入介绍专为 Java 开发者设计的 AI 编程框架 Spring AI,围绕覆盖 Spring AI 的基本使用方法如聊天、RAG、文生图等应用开发最佳实践;结合 Spring Cloud Alibaba AI 与阿里巴巴的通义大模型深度融合,探索如何通过 Spring AI 调用先进的 AI 能力,提升应用的智能化水平,拓展业务的边界,轻松应用人工智能技术,无缝集成到已有的 Java 应用中,快速构建出智能化的应用。

⑤ 分享主题丨AIGC 趋势下,通义灵码的智能编码探索与实践

在当前 AI 生成内容(AIGC)的浪潮中,探索并实践基于通义灵码的大型模型智能编程技术,正引领着编程领域的一场革新。阿里云通义灵码产品解决方案架构师李婷玉(苦薏) 在本次活动中结合企业中典型角色开发、测试、运维讲解基于通义灵码落地的最佳实践场景介绍灵码产品的特性,帮助现场深入了解通义灵码在代码智能补全、代码解释、代码注释辅助生成、单元测试辅助生成、代码优化、研发自由问答场景下的能力,解答企业对于灵码代码安全隐私疑惑及灵码如何提升企业研发效率的效果公式。随着技术的不断成熟与应用场景的拓展,我们相信通义灵码将在软件开发的未来扮演更加核心的角色。

⑥ 分享主题丨阿里云消息队列 Kafka 的 Serverless 架构升级

阿里云消息队列 Kafka 是阿里云基于 Apache Kafka 构建的一项托管服务,它为用户提供了一个高吞吐量、分布式、实时的数据处理平台。本次活动中阿里云云原生研发工程师刘睿从消息队列架构的演进历史、消息队列 Kafka 的 Serverless 架构升级、消息队列 Kafka Serverless 版和开源 Kafka 的性能对比,以及未来展望四个方面,介绍了消息队列 Kafka Serverless 版的技术发展演进路线。着重介绍了阿里云 Kafka Serverless 基于盘古分布式文件系统和 K8s 容器部署的存算分离架构,在新架构下适配和优化了开源社区 Kafka 的计算层和存储层,包括 HA 机制,冷热读写缓存和隔离等。在高吞吐,碎片化等场景下,性能、成本和资源利用率对比开源 Kafka 均具有明显优势。

现场精彩瞬间

关于本场直播回放,您也可以点击此处,锁定阿里云开发者社区直播间观看!


阿里云云原生
1k 声望302 粉丝