头图

YOLO (You Only Look Once) 是计算机视觉领域中最具影响力的实时目标检测算法之一,以其高精度与高效性深受业界青睐,广泛应用于自动驾驶、安防监控、医疗影像等领域。

该模型最早于 2015 年由华盛顿大学研究生 Joseph Redmon 发布,开创了将目标检测视为单一回归问题的先河,实现了端到端的目标检测,并迅速获得了开发者的广泛认可。随后,Alexey Bochkovskiy、Glenn Jocher(Ultralytics 团队)以及美团视觉智能部等团队分别推出了多个重要版本。

截至目前,YOLO 系列模型在 GitHub 上的 Star 数已达数十万,展现了其在计算机视觉领域的影响力。

在这里插入图片描述

YOLO 模型任务示例图

YOLO 系列模型的特点在于其单阶段 (One-Stage) 检测架构,无需复杂的区域候选框生成,能够在单次前向传播中完成目标检测,极大提升了检测速度。相比于传统的双阶段检测器(如 Faster R-CNN),YOLO 具备更快的推理速度,能够实现高帧率图像实时处理,并且优化了硬件适配能力,广泛应用于嵌入式设备和边缘计算场景。

目前,HyperAI超神经官网的「教程」板块已上线 YOLO 系列的多个版本,一键部署即可体验~

本文将在最后以最新版本 YOLOv11 为例为大家讲解一键部署教程。

1、YOLOv2

发布时间:2017 年

重要更新:提出了 Anchor Boxes(锚框),采用 Darknet-19 作为骨干网络,提高了速度和精度。

用 TVM 在 DarkNet 模型中编译 YOLO-V2:

https://go.hyper.ai/LiOio

2、YOLOv3

发布时间:2018 年

重要更新:使用 Darknet-53 作为骨干网络,在保持实时速度的同时显著提高了准确性,提出了多尺度预测(FPN 结构),在检测不同大小的目标和处理复杂图像方面取得了显著改进。

用 TVM 在 DarkNet 模型中编译 YOLO-V3:

https://go.hyper.ai/LiOio

3、YOLOv5

发布时间:2020 年

重要更新:引入自动锚框调整机制,保持了实时检测能力,提高了准确性。采用更轻量化的 PyTorch 实现,使其更易于训练和部署。

一键部署:https://go.hyper.ai/jxqfm

4、YOLOv7

发布时间:2022 年

重要更新:基于扩展高效层聚合网络 (Expanded Efficient Layer Aggregation Network),提高参数利用率和计算效率,以更少的计算资源实现了更好的性能。增加了额外的任务,如 COCO 关键点数据集的姿势估计。

一键部署:https://go.hyper.ai/d1Ooq

5、YOLOv8

发布时间:2023 年

重要更新:采用新的骨干网络,引入新的无锚点 (Ancher-Free) 检测头和损失函数,在平均精度、大小和延迟方面皆优于之前版本。

一键部署:https://go.hyper.ai/Cxcnj

6、YOLOv10

发布时间:2024 年 5 月

重要更新:消除了非最大抑制 (Non-Maximum Suppression, NMS) 要求,减少推理延迟。纳入大核卷积和部分自注意模块,在不增加大量计算成本的情况下提高性能。全面优化了各种组件,提高了效率和准确性。

一键部署 YOLOv10 目标检测:

https://go.hyper.ai/TQH1f

一键部署 YOLOv10 物体检测:

https://go.hyper.ai/RcLWj

7、YOLOv11

发布时间:2024 年 9 月

重要更新:在多项任务(包括检测、分割、姿态估计、跟踪和分类)中提供最先进的 (SOTA) 性能,利用了各种 AI 应用程序和领域的功能。

一键部署:https://go.hyper.ai/Nztnq

YOLOv11 一键部署教程

HyperAI 超神经教程板块现已上线「一键部署 YOLOv11」,该教程已经为大家搭建好了环境,无需输入任何命令,点击克隆即可快速体验 YOLOv11 的强大功能!

教程地址:https://go.hyper.ai/Nztnq

Demo 运行

  1. 登录 hyper.ai,在「教程」页面,选择「一键部署 YOLOv11」,点击「在线运行此教程」。

在这里插入图片描述
在这里插入图片描述

  1. 页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

在这里插入图片描述

  1. 点击右下角「下一步:选择算力」。

在这里插入图片描述

  1. 页面跳转后,选择「NVIDIA RTX 4090」以及「PyTorch」镜像,用户可以按照自身需求选择「按量计费」或 「包日/周/月」,完成选择后,点击「下一步:审核」。

在这里插入图片描述

  1. 确认无误后,点击「继续执行」,等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」旁的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

效果演示

  1. 打开 YOLOv11 物体检测 Demo 页面,小编上传了一张动物叠罗汉的图片,调整参数,点击「Submit」,可以看到 YOLOv11 已经精准检测出了图中所有动物。原来右下角还藏着一只小鸟!大家有没有注意到呢~

下方参数分别表示:

  • Model:指选择使用的 YOLO 模型版本。
  • Image Size:输入图像的尺寸,模型在检测时会将图片调整为这个大小。
  • Confidence Threshold:置信度阈值,表示模型在进行目标检测时,只有置信度超过这个设定值的检测结果才会被认为是有效目标。

在这里插入图片描述
在这里插入图片描述

  1. 进入实例分割 Demo 页面,上传图片并调整参数后,点击「Submit」,就可以完成分割操作。即使存在遮挡,YOLOv11 也能完成得非常出色,准确分割人物并勾勒出巴士的轮廓。

在这里插入图片描述

  1. 进入物体分类 Demo 页面,小编上传了一张狐狸图片,YOLOv11 即可精准地检测出图片中狐狸具体品种为红狐。

在这里插入图片描述

  1. 进入姿态识别 Demo 页面,上传图片,根据图片调整参数,点击「Submit」,即可完成姿态动作分析。可以看到它准确的分析出了人物夸张的肢体动作。

在这里插入图片描述

  1. 在定向物体检测 Demo 页面,上传图片并调整参数,点击「Submit」,可以识别出物体的具体位置和分类情况。

在这里插入图片描述


超神经HyperAI
1.3k 声望8.8k 粉丝