活动介绍

在 CPU 上加速 AI 推理速度,是 AI 项目落地时常见的需求。现在大家已经不再争论跑AI,到底是 GPU 好,还是应该开发更专用的 AI 加速芯片了,因为 CPU 也成了越来越多企业用户的选择,那么我们到底需要用什么样的“姿势”,才能用好 CPU 的这项能力?

为此,Intel 开发了在 CPU 上加速低精度推理的硬件技术:Intel® Deep Learning Boost 技术;同时也推出了 Intel® AI Analytics Toolkit 软件工具包。通过两者的结合,帮助用户简洁方便的实现在 CPU 上加速AI推理。

为了让大家能够更深入的参与,本次活动我们也特别邀请到英特尔(Intel)的嘉宾,为大家带来基于TensorFlow的 AI 模型推理加速及优化。


活动信息

时间:5 月 25 日晚 20:00 - 21:30

报名活动及直播预约直戳:

https://www.slidestalk.com/m/...

或扫描下方二维码直接报名:

线上,报名链接及直播链接都是这个,我们期待与你云端共话。


嘉宾介绍

张建宇

Intel AI软件解决方案工程师

专注于Intel平台上(CPU,GPU)上,AI解决方案和性能优化。硕士,毕业于西北工业大学模式识别和人工智能专业。资深软件工程师,具有丰富的AI,虚拟化,通讯行业和嵌入式软件开发经验。

内容介绍
老师将重点介绍 Intel 在 Xeon 平台上对 Tensorflow* 的优化,并为大家带来 AI 模型优化量化工具:Intel® Neural Compressor。

➡️ 首先展示一个端到端的 demo:训练并得到一个 FP32 的 Tensorflow 模型;通过 Intel® Neural Compressor 量化和优化该模型,得到一个 INT8 的模型;

➡️ 然后在 Intel® DevCloud 环境里,在支持 Intel® Deep Learning Boost 技术的 Xeon® CPU 上测试对比 FP32 和 INT8 模型性能的提升和精度损失情况。

➡️ 最后,我们可以看到 INT8 模型的推理性能会有明显的提升,而精度的损失被控制在一个很小,可接受的范围。


互动有礼

线上的活动,除了干货满满的分享内容,肯定少不了诚意满满的周边伴手礼品:Intel 定制水杯、小周边手机支架、数据线等,同时还为大家准备了购书卡、力扣会员码等等,丰富的礼品等你来!

♥️ 转发上方报名链接(https://www.slidestalk.com/m/...)给你的小伙伴,小伙伴成功报名通过后,我们将为你送上定制的周边礼品哦!我们希望大家的云聚会不仅仅是深度的技术交流,更能结交更多志同道合的朋友,一起碰撞出更加精彩的火花。

♥️ 除此之外,活动当日参加线上互动抽奖,还有机会获得定制水杯和购书卡~!

♥️ 如果你想要提前加入交流群,请直接扫码加群哦,期待和你的更深交流!并请留意,我们所有的兑奖都是在群里联系工作人员进行的哦~

发布于 2022-05-04
0 条评论
组织者
主办方
Google Developer Groups 谷歌开发者社区