YOLO (You Only Look Once) 是计算机视觉领域中最具影响力的实时目标检测算法之一,以其高精度与高效性深受业界青睐,广泛应用于自动驾驶、安防监控、医疗影像等领域。
该模型最早于 2015 年由华盛顿大学研究生 Joseph Redmon 发布,开创了将目标检测视为单一回归问题的先河,实现了端到端的目标检测,并迅速获得了开发者的广泛认可。随后,Alexey Bochkovskiy、Glenn Jocher(Ultralytics 团队)以及美团视觉智能部等团队分别推出了多个重要版本。
截至目前,YOLO 系列模型在 GitHub 上的 Star 数已达数十万,展现了其在计算机视觉领域的影响力。
YOLO 模型任务示例图
YOLO 系列模型的特点在于其单阶段 (One-Stage) 检测架构,无需复杂的区域候选框生成,能够在单次前向传播中完成目标检测,极大提升了检测速度。相比于传统的双阶段检测器(如 Faster R-CNN),YOLO 具备更快的推理速度,能够实现高帧率图像实时处理,并且优化了硬件适配能力,广泛应用于嵌入式设备和边缘计算场景。
目前,HyperAI超神经官网的「教程」板块已上线 YOLO 系列的多个版本,一键部署即可体验~
本文将在最后以最新版本 YOLOv11 为例为大家讲解一键部署教程。
1、YOLOv2
发布时间:2017 年
重要更新:提出了 Anchor Boxes(锚框),采用 Darknet-19 作为骨干网络,提高了速度和精度。
用 TVM 在 DarkNet 模型中编译 YOLO-V2:
2、YOLOv3
发布时间:2018 年
重要更新:使用 Darknet-53 作为骨干网络,在保持实时速度的同时显著提高了准确性,提出了多尺度预测(FPN 结构),在检测不同大小的目标和处理复杂图像方面取得了显著改进。
用 TVM 在 DarkNet 模型中编译 YOLO-V3:
3、YOLOv5
发布时间:2020 年
重要更新:引入自动锚框调整机制,保持了实时检测能力,提高了准确性。采用更轻量化的 PyTorch 实现,使其更易于训练和部署。
一键部署:https://go.hyper.ai/jxqfm
4、YOLOv7
发布时间:2022 年
重要更新:基于扩展高效层聚合网络 (Expanded Efficient Layer Aggregation Network),提高参数利用率和计算效率,以更少的计算资源实现了更好的性能。增加了额外的任务,如 COCO 关键点数据集的姿势估计。
一键部署:https://go.hyper.ai/d1Ooq
5、YOLOv8
发布时间:2023 年
重要更新:采用新的骨干网络,引入新的无锚点 (Ancher-Free) 检测头和损失函数,在平均精度、大小和延迟方面皆优于之前版本。
一键部署:https://go.hyper.ai/Cxcnj
6、YOLOv10
发布时间:2024 年 5 月
重要更新:消除了非最大抑制 (Non-Maximum Suppression, NMS) 要求,减少推理延迟。纳入大核卷积和部分自注意模块,在不增加大量计算成本的情况下提高性能。全面优化了各种组件,提高了效率和准确性。
一键部署 YOLOv10 目标检测:
一键部署 YOLOv10 物体检测:
7、YOLOv11
发布时间:2024 年 9 月
重要更新:在多项任务(包括检测、分割、姿态估计、跟踪和分类)中提供最先进的 (SOTA) 性能,利用了各种 AI 应用程序和领域的功能。
一键部署:https://go.hyper.ai/Nztnq
YOLOv11 一键部署教程
HyperAI 超神经教程板块现已上线「一键部署 YOLOv11」,该教程已经为大家搭建好了环境,无需输入任何命令,点击克隆即可快速体验 YOLOv11 的强大功能!
教程地址:https://go.hyper.ai/Nztnq
Demo 运行
- 登录 hyper.ai,在「教程」页面,选择「一键部署 YOLOv11」,点击「在线运行此教程」。
- 页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
- 点击右下角「下一步:选择算力」。
- 页面跳转后,选择「NVIDIA RTX 4090」以及「PyTorch」镜像,用户可以按照自身需求选择「按量计费」或 「包日/周/月」,完成选择后,点击「下一步:审核」。
- 确认无误后,点击「继续执行」,等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」旁的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。
效果演示
- 打开 YOLOv11 物体检测 Demo 页面,小编上传了一张动物叠罗汉的图片,调整参数,点击「Submit」,可以看到 YOLOv11 已经精准检测出了图中所有动物。原来右下角还藏着一只小鸟!大家有没有注意到呢~
下方参数分别表示:
- Model:指选择使用的 YOLO 模型版本。
- Image Size:输入图像的尺寸,模型在检测时会将图片调整为这个大小。
- Confidence Threshold:置信度阈值,表示模型在进行目标检测时,只有置信度超过这个设定值的检测结果才会被认为是有效目标。
- 进入实例分割 Demo 页面,上传图片并调整参数后,点击「Submit」,就可以完成分割操作。即使存在遮挡,YOLOv11 也能完成得非常出色,准确分割人物并勾勒出巴士的轮廓。
- 进入物体分类 Demo 页面,小编上传了一张狐狸图片,YOLOv11 即可精准地检测出图片中狐狸具体品种为红狐。
- 进入姿态识别 Demo 页面,上传图片,根据图片调整参数,点击「Submit」,即可完成姿态动作分析。可以看到它准确的分析出了人物夸张的肢体动作。
- 在定向物体检测 Demo 页面,上传图片并调整参数,点击「Submit」,可以识别出物体的具体位置和分类情况。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。