苹果为iOS 17扩展了Core ML、Create ML和Vision框架

WWDC 2023:苹果机器学习和视觉生态系统的更新

在最近的WWDC 2023开发者大会上,苹果展示了其机器学习和视觉生态系统的多项扩展和更新,包括对Core ML框架的改进、Create ML建模工具的新功能,以及用于图像分割、动物姿态检测和3D人体姿态的新视觉API。

Core ML框架的改进

  1. 更快的推理引擎:苹果工程师Ben Levine介绍,Core ML的推理引擎速度得到提升,且无需重新编译模型或更改相关代码。速度提升的具体数据尚未公布,且取决于模型和硬件。
  2. 异步预测API:新增的Async Prediction API支持异步工作流,允许在后台线程中执行预测,实现多个预测的并发执行。该API还支持取消预测请求,进一步提升响应速度。
  3. 内存管理:由于并发推理会增加内存需求,开发者需注意限制并发操作的数量,以避免内存问题。

Core ML工具的更新

  1. 模型转换优化:新版本的Core ML Tools支持多种优化技术,包括权重剪枝、量化和调色板化,帮助开发者优化模型的尺寸和性能。这些技术可在训练新模型或从Python转换时应用。

Create ML的扩展

  1. 多语言BERT嵌入:Create ML新增对多语言BERT嵌入的支持,提升单语言文本分类器的准确性。
  2. 多标签图像分类:新增多标签图像分类功能,扩展了模型的适用场景。
  3. 数据增强API:新的Augmentation API帮助开发者在训练数据有限的情况下提升模型质量。API支持开发者通过组合不同的转换步骤构建自定义数据增强流程。

VisionKit框架的新功能

  1. 动物姿态检测:新增实时检测动物姿态并跟踪其关节的功能。
  2. 图像分割:新增Segmentation API,支持从图像中提取主体并分离背景,以及在同一图像中区分多个个体。

总结

苹果在WWDC 2023上展示了其机器学习和视觉生态系统的多项重要更新,涵盖推理速度提升、异步预测、模型优化、多语言支持、数据增强以及新的视觉功能。这些更新旨在帮助开发者更高效地构建和优化机器学习模型,并为用户提供更丰富的视觉体验。

阅读 11
0 条评论