由深度学习技术及应用国家工程研究中心主办、百度飞桨和文心大模型承办的WAVE SUMMIT 2023峰会重磅来袭!本届峰会聚焦AI技术、产业生态、未来趋势等主要方向,产、学、研、用各界大咖将围绕深度学习及大模型技术的发展与未来,带来行业前瞻洞察和一系列全新重磅发布。今天将为大家介绍“智能硬核 生态共创”平行论坛精彩亮点,一起来先睹为快!
活动详情
“智能硬核 生态共创”平行论坛荣幸的邀请到上海交通大学计算机科学与工程系教授和学科带头人梁晓峣担任论坛主席。硬件生态共创计划成员中的多位资深专家、企业代表将为大家分享在算力、算法方面的深度融合合作与能力升级,共同探讨基于文心与飞桨共享生态建设下的软硬融合方案及创新实践计划,分享大模型训练和推理部署前沿技术。
报告主题
梁晓峣
上海交通大学计算机科学与工程系教授和学科带头人
软硬协同共建大模型产业生态
大模型下算力需求爆发,算力芯片如何寻求突破,软硬件协同生态的建设是关键。过去一年大模型的迅速崛起,给了芯片行业焕发新生的历史机会。此时此刻有必要汇聚全行业的力量,无论是当前的霸主还是后起的新秀,携起手来共同打造卓越的大模型生态。
郑彬
NVIDIA亚太区资深产品负责人
NVIDIA×飞桨:极致性能,赋能AI落地千行百业
生成式AI应用百花齐放,在过去的半年里深刻改变了我们的生活方式,极大提高了我们的生产效率和工作能力。在本主题演讲中,将分享通过使用全新的NVIDIA硬件及软件栈,帮助大语言模型 (LLM) 的开发者降本增效,实现技术创新,并通过机密计算功能获得LLM企业的信赖。
赵玉萍
英特尔人工智能架构师
英特尔×飞桨:芯加速行至远,共话AI新布局
从2017年合作开始,百度飞桨和Intel不断拓展了合作的深度和广度,双方成立了联合技术团队,从硬件上积极适配Intel全栈AI产品,在软件层面,双方也进行了深入的合作,在本主题演讲中会详细分享。同时,最近大语言模型 (LLM) 正在席卷整个机器学习世界。LLM 需要大量的算力才能满足某些场景的低延迟需求,对于很多组织而言,相关成本可能高得令人望而却步。在本主题演讲中,我们将讨论如何减少LLM尺寸和推理延迟的优化技术,以使得它们可以在英特尔第四代至强扩展处理器上调用AMX(高级矩阵加速引擎)高效运行。
明立波
曙光智算应用推广部总经理
中科曙光×飞桨:公共算力服务,全面支撑数字化转型
随着超大规模模型的不断成熟,人工智能产业已经逐步进入到2.0时代。中科曙光与百度飞桨在大模型预训练、行业模型微调、应用适配对接、应用商城搭建等方向深入合作,持续完善人工智能软硬生态,为下一代人工智能技术的发展与落地提供有力支撑。
徐臻
昆仑芯政企/智算中心业务总经理
昆仑芯×飞桨:端到端优化,打造大模型时代 AI “芯”势力
大模型时代对算力供给发起挑战,昆仑芯坚持软硬协同创新,顺应市场需求推出大模型端到端解决方案,性能和落地成果领跑行业。面对大模型带来前所未有的机遇,昆仑芯坚定携手百度飞桨等上下游合作伙伴,加速提升我国人工智能产业核"芯"竞争力。
闫龑
天数智芯软件应用研发总监
天数智芯×飞桨:筑根立基,共创大模型产业芯范式
天数智芯作为国内早期实现云端通用GPU量产的公司,在大模型领域已实现诸多案例落地,包括基于千卡规模的近千亿参数预训练、全参/高效参数微调、行业大模型推理一体机等。软件栈兼容主流生态,训练产品天垓100在短期内与飞桨框架快速完成了三级适配互认,后期双方将基于开放生态,在全量训练、推理侧以及算法平台方向进一步合作,共同打造软硬一体的解决方案,为行业赋能。
丁云帆
壁仞科技系统架构副总裁
壁仞科技×飞桨:创无止境,建设高性能通用AI设施
GPT类大模型的分布式训练在模型的参数规模、算力规模和训练性能等维度都存在巨大的挑战,大模型的应用落地也存在成本高、延时大的难题。本报告主要介绍GPT大模型的分布式并行训练策略、如何基于壁仞科技大算力通用GPU打造大模型训练系统及低延时高性能的大模型推理引擎,最后分享壁仞科技与百度飞桨在人工智能软硬件基础生态和大模型上的合作与进展。
圆桌论坛:文心大模型赋能端侧AI
百度与高通、MediaTek、安谋科技3家端侧硬件标杆企业,共同探讨文心大模型赋能端侧AI应用前景。3家硬件企业代表将会分享他们在端侧硬件支持大模型技术方面的最新进展,探讨如何将文心大模型与端侧硬件技术产品相结合,利用文心大模型的强大功能,进一步推动端侧AI应用的发展,以满足不断增长的用户需求。另外,飞桨+文心大模型在本次论坛中将携手硬件厂商联合发布飞桨+文心大模型硬件生态共创计划。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。