骄阳似火,就想待在空调房里哪都不去,那么不妨借此机会学学技术吧,也许正好能帮你解决工作中的棘手问题呢。2020年7月,我们继续与大家分享了大量有关 亚马逊云科技(Amazon Web Services)的AI、机器学习、深度学习等技术文章,是时候简单回顾一下了。
Amazon SageMaker
2020年4月,Amazon SageMaker 已经在由光环新网运营的亚马逊云科技中国(北京)区域和由西云数据运营的亚马逊云科技中国(宁夏)区域正式开放。作为一种机器学习平台服务,Amazon SageMaker 通过不断丰富的功能组件让数据科学家、算法工程师、业务开发者都能轻松驾驭机器学习。它功能到底有多强大?又有哪些企业应用 Amazon SageMaker 造就成功案例?欢迎阅读:机器学习时代的到来,他们用Amazon SageMaker来做这些!
机器学习工作流是一个迭代过程,需要做出许多决策,而所有决策都将影响学习系统的结果。此外,我们还需要结合实际需求,选择一种最适合的学习系统,到底是监督学习还是无监督学习?或者半监督学习?强化学习?整个流程涉及太多技术和决策,往往会让新手感到困惑。不妨通过一个实例,来完整了解一下机器学习的工作流程到底该如何构建吧。欢迎阅读:哪些餐厅评价最高?实例上手,了解机器学习工作流的构建。
机器学习
ERNIE(Enhanced Representation through Knowledge Integration)是一种语义理解框架,旨在使用纯文本捕获语义模式的基础之上,进一步通过知识增强的方式,结合语义中的知识关系来提供更加丰富的结构化表现。该框架在最近举办的全球最大规模语义评测比赛 SemEval 2020中,一举斩获了包括视觉媒体的关键文本片段挖掘、多语攻击性语言检测和混合语种的情感分析等在内的5项世界冠军!更棒的是,Amazon SageMaker 已提供了针对 ENRIE 2.0的全面支持!进一步了解:ERNIE | 「最棒」的语义理解框架,亚马逊云科技自然全力支持
创建一个可靠、高效的机器学习推理服务需要做很多投入,例如创建应用程序,打包和部署,模型的加载,终端节点的运行……其中很多环节都需要复杂的开发和运维任务。亚马逊云科技最近发布了适用于 Kubernetes 的 Amazon SageMaker Operator,可以帮助开发者用 SageMaker 托管的终端节点增强现有 Kubernetes 集群,大幅简化相关运维工作的负担和难度。欢迎阅读:Kubernetes 上的机器学习推理,可以通过这种方式进一步增强。
根据业务需求创建一种或几种 ML 模型,然后根据模型的推理获得业务所需的决策依据,这种基于群组或细分市场来建立模型的做法想必大家都很熟悉了。然而有些场景中,我们可能需要基于个体用户的数据来建立模型,以便获得更准确的结果,但这种做法往往会导致部署模型的成本大幅提高,并且生产环境中,如此多的模型会变得难以管理。Amazon SageMaker 多模型终端节点功能解决了这个问题。欢迎阅读:给每个用户创建一个独有 ML 模型,这是一种怎样的体验?
用过 Amazon EC2 实例的用户可能都知道,EC2 有一种 Spot 实例,可以将亚马逊云科技中暂未使用的 EC2 容量提供给用户,相比按需实例,最多可享受90%的价格折扣。类似的,最近 Amazon SageMaker 开始提供托管 Spot 训练功能。这是一个基于 Amazon EC2 Spot 实例的新功能,与在 Amazon SageMaker 中使用按需实例相比,最高可节约90%的 ML 训练成本。进一步了解:用 Spot 实例训练ML模型,谁说训练成本降不下来!
机器学习的流程之所以如此艰难,部分原因在于,这个领域存在许多经验丰富的从业者才知道的最佳实践。对于数据科学领域的新手,可能会花费大量时间践行一种自认为正确的方法。如果专家们可以将自己的最佳实践编纂成一个简单易用的软件包,供所有开发人员使用,结果会怎么样?这就是自动化机器学习(AutoML)背后的理念,也是 AutoGluon AutoML 库的设计理念,借此,我们可以训练最先进的机器学习模型,以进行图像分类、对象检测、文本分类和表格式数据预测,而几乎无需具备机器学习方面的经验。详细了解:机器学习 | 呐,你已经是成熟的机器了,学习问题请自己搞定!
构建和训练 ML 模型是科学和工艺的结合。从收集和准备数据集,到使用不同算法进行实验以找出最佳训练参数,ML 从业者需要清除很多障碍才能提供高性能模型。然而在训练过程中,很多人经常会遇到一些棘手的问题,导致模型无法正确提取或难以学习数据集中的模型,并且最终往往发现,这些问题大部分是由于不适当的参数初始化、糟糕的超参数组合、我们自己代码中的设计问题等造成的。最近发布的 Amazon SageMaker Debugger 可自动识别机器学习(ML)训练作业中出现的复杂问题,帮助我们更快速有效地创建模型。欢迎阅读:用调试器,让你的 ML 模型脱离墨菲定律困扰。
深度学习
在深度学习领域,推理是使用训练模型进行预测的过程。对于使用 PyTorch 等框架的深度学习应用程序,推理成本占计算成本的90%。由于深度学习模型需要不同数量的 GPU、CPU 和内存资源,为推理选择适当的实例有一定难度。Amazon Elastic Inference 通过支持将适量 GPU 支持推理加速附加到任何 Amazon SageMaker 或 EC2 实例或 Amazon ECS 任务中,顺利解决了这个问题,借此帮助 Elastic Inference 用户在降低成本的同时,大幅改善 PyTorch 模型在 Amazon SageMaker上的延迟。进一步了解:PyTorch 模型推理,提速同时降低成本,这到底怎么做到的?
人工智能
随着机器学习技术的火热,人们发现用 GPU 来进行 ML 模型的训练是一种比较好的做法,速度更快,性能更强。然而毕竟 GPU 诞生的本意就是用于处理计算机图像的,并非 AI 专用,那么有没有专供机器学习使用的芯片,可以实现比 GPU 训练更快的速度,以及更低的成本?针对这个问题,亚马逊云科技自己设计并打造了 Inferentia 芯片,具备高性能、低延迟、高易用等特点,能够以更低成本提供更高性能的机器学习推理能力。进一步了解:亚马逊云科技为机器学习推理开发的专用芯片,你不想体验一下?
!
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。