5 月 11 日 K8sMeetup「上海站」——“Kubernetes & Kubeflow”专场
开始时间: 2019-05-11 13:00
结束时间: 2019-05-11 18:00
举办地点: 上海市上海市杨浦区淞沪路 333 号创智天地三期 12 号楼 10 层
主办方:
活动已结束

近年来,人工智能与机器学习领域逐渐强大,解决了人们很多的问题,但是由于机器学习属于新生事物,它的基础架构支持比较新颖且部署相对复杂。

有什么好方法能让机器学习变得简单呢 ?

经过不断的实践,一部分工程师选择将机器学习部署在 Kubernetes 上。因为 Kubernetes 具有自动扩容,便于维护等特性。但一段时间后,他们依然遇到了部署复杂、指令繁冗等难题,这又该如何处理呢 ?

鉴于以上种种问题,Kubeflow 应运而生。它的出现,使得在 Kubernetes 上机器学习堆栈变得简单、快速、并且具有了可扩展性。

或许你才刚刚听说 Kubeflow, 也许你已经在 Kubeflow 领域开始贡献。如果你对 Kubeflow 充满好奇,对这个技术跃跃欲试。

接下来我们诚挚邀请你:

2019 年 5 月 11 日,「K8sMeetup 中国社区」携手主办方才云 Caicloud,将在上海举办 Kubeflow Meetup。届时,社区将集结 4 位业界大咖,基于 Kubernetes 强大的开源经验,结合行业需求深入探讨 Kubeflow 落地新契机。

你知道么?全世界现有大约有 2000 万名开发者,而数据科学家只有 200 万。学习并参与贡献 Kubeflow,或许下个十年,你不仅能获得一份高薪工作还可能成为下一位数据科学家。

还在等什么?!我们期待你的到来!

立即报名

▷ 活动费用:免费报名

▷ 活动时间:
2019 年 5 月 11 日(星期六)13:00 - 17:30

▷ 活动地点:
上海市杨浦区淞沪路 333 号创智天地三期 12 号楼 10 层

Kubeflow Meetup 活动流程及讲师

13:00 - 13:30
签到

13:35 - 13:45
Kubernetes & Kubeflow Meetup「上海」开场

13:45 - 14:25
张海宁
《在 Kubernetes 中使用 vGPU 实现机器学习任务共享 GPU》

14:30 - 15:20
高策
《Ciao:在 Jupyter Notebook 中使用 Kubeflow 进行分布式模型训练》

15:20 - 15:45
中场茶歇

15:45 - 16:25
乐金明
《云原生 DevOps 平台 Cyclone 的实现》

16:30 - 17:20
高朋
《对 cluster-autoscaler 的改进——让 cluseter-autoscaler 支持预测性伸缩》

17:20 - 17:40
会后讨论

嘉宾介绍

高策
才云 Caicloud 研发工程师

讲师简介:
才云 Caicloud 工程师以及 Kubeflow 项目维护者之一,主要负责 Kubernetes 分布式训练项目 tf-operator 和 AutoML 系统 Katib,研究涉及的领域包括 Apache TVM、模型服务、自动机器学习等。本科与研究生毕业于上海交通大学,期间是 coala 等开源项目的维护者。

演讲提纲:
在本次分享中,我将介绍目前 Kubeflow 项目的进展,以及目前社区中在 Jupyter Notebook 中支持 Kubeflow 的实现方案。最后介绍一个为 Kubeflow 实现 Jupyter Kernel 的开源组件 ciao。通过它,用户通过几行 magic commands 就可以发起一次分布式模型训练任务。

乐金明
才云 Caicloud 容器云研发总监

讲师简介:
专注于 DevOps,容器云,服务网格等技术。曾任职于 IBM,参与 ISD、ICM 等多款云产品的研发,后加入唯品会,从零搭建基于容器云的 PaaS,帮助唯品会实现容器云上生产。2017 年加入才云科技,主要负责容器云产品的设计和研发工作。

演讲提纲:
DevOps 能够提升软件开发与发布效率,AI 场景下同样需要 DevOps 能力来提升模型训练和发布效率。传统的 DevOps 平台,很难同时满足这两种场景。云原生 DevOps 平台 Cyclone,基于 Kubernetes 灵活的编排和调度能力,能够灵活地满足各种工作流场景。目前,Cyclone 已经很好地支撑才云容器云产品 Compass 中的 CI/CD 和 AI 产品 Clever 中的 AI 流水线。

张海宁
Harbor 项目创始人,VMware 中国研发先进技术中心技术总监

讲师简介:
Harbor 企业级容器镜像仓库开源项目创建人和架构师,Cloud Foundry 中国社区最早的技术布道师之一,《区块链技术指南》作者之一。目前着重关注区块链、容器和云计算等领域的研究和开发工作。

演讲提纲:
本分享将介绍如何使用 Kubernetes 中的 GPU 运行工作负载,将展示如何使用虚拟 GPU(vGPU)技术来使多个 pod 同时访问相同的物理 GPU。不仅可以提高 GPU 资源的利用率,还可以在同一物理 GPU 上调度更多的 GPU 工作负载。

高朋
科赛网后端工程师

讲师简介:
后端研发工程师,主要关注 Kubernetes 后端架构和数据分析工具的结合。

演讲提纲:
首先介绍 cluster auto scaler 的主要设计和功能,然后会说明科赛对于 cluster-autoscaler 的一些改动使得这个组件可以支持预测形伸缩,最后介绍一下我们用到的对计算资源进行预测的工具和算法 fbpophet 以及 LSTM。

主办方
图片描述

1 条评论
林深见鹿 · 4月28日

标题?

回复

载入中...

活动组织者