主页
隆重推出 Ultralytics YOLO26,备受赞誉的实时目标检测和图像分割模型的最新版本。YOLO26 基于深度学习和计算机视觉的最新进展构建,具有端到端无 NMS 推理和优化的边缘部署能力。其流线型设计使其适用于各种应用,并可轻松适应从边缘设备到云 API 的不同硬件平台。对于稳定的生产工作负载,推荐使用 YOLO26 和 YOLO11。
探索 Ultralytics 文档,这是一个综合资源,旨在帮助您理解和利用其特性和功能。无论您是经验丰富的机器学习从业者还是该领域的新手,此中心都旨在最大限度地发挥 YOLO 在您项目中的潜力。
从哪里开始
快速入门
安装
ultralytics使用 pip 在几分钟内启动并运行,以训练 YOLO 模型预测
使用 YOLO 预测新图像、视频和流
训练模型
从头开始在你自己的自定义数据集上训练一个新的 YOLO 模型,或者加载并在预训练的模型上训练
探索计算机视觉任务
探索 YOLO 任务,例如 detect、segment、classify、姿势估计、旋转框检测 和 track。
探索 YOLO26 🚀 新功能
探索 Ultralytics 最新的 YOLO26 模型,具有无 NMS 推理和边缘优化功能
SAM 3: 用概念分割万物 🚀 新功能
Meta 最新的 SAM 3 支持可提示概念分割 - 使用文本或图像示例分割所有实例
开源,AGPL-3.0
Ultralytics 提供两种 YOLO 许可:AGPL-3.0 和企业版。在 GitHub 上探索 YOLO。
观看: 如何在您的自定义数据集上训练 YOLO11 模型 Google Colab.
YOLO 简史
YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的 Joseph Redmon 和 Ali Farhadi 开发。YOLO 于 2015 年推出,因其高速和高精度而广受欢迎。
- YOLOv2于2016年发布,通过引入批量归一化、锚框和维度聚类,改进了原始模型。
- 2018年推出的YOLOv3,通过使用更高效的主干网络、多个锚点和空间金字塔池化,进一步提高了模型的性能。
- YOLOv4于 2020 年发布,引入了诸如 Mosaic 数据增强、一种新的无锚框检测头以及一种新的 损失函数等创新。
- YOLOv5 进一步提高了模型的性能,并添加了新功能,例如超参数优化、集成实验跟踪和自动导出为流行的导出格式。
- YOLOv6 由美团于 2022 年开源,并已应用于该公司的许多自动送货机器人中。
- YOLOv7 添加了其他任务,例如在 COCO 关键点数据集上进行姿势估计。
- Ultralytics 于 2023 年发布的 YOLOv8 引入了新功能和改进,以增强性能、灵活性和效率,并支持全方位的视觉 AI 任务。
- YOLOv9 引入了诸如可编程梯度信息 (PGI) 和通用高效层聚合网络 (GELAN) 等创新方法。
- YOLOv10 由清华大学的研究人员使用UltralyticsPython package创建,通过引入消除非极大值抑制 (NMS) 要求的端到端头部,提供实时的目标检测改进。
- YOLO11:于 2024 年 9 月发布,YOLO11 在多项任务中表现出色,包括目标 detect、segment、姿势估计、track和分类,可部署到各种 AI 应用和领域。
- YOLO26 🚀:Ultralytics 的下一代 YOLO 模型,针对边缘部署进行了优化,具有端到端无 NMS 推理功能。
YOLO 许可:Ultralytics YOLO 如何授权?
Ultralytics 提供两种许可选项,以适应不同的使用场景:
- AGPL-3.0 许可:此经 OSI 批准的开源许可非常适合学生和爱好者,可促进开放协作和知识共享。有关更多详细信息,请参见LICENSE文件。
- 企业许可:此许可专为商业用途而设计,允许将 Ultralytics 软件和 AI 模型无缝集成到商业产品和服务中,从而绕过 AGPL-3.0 的开源要求。如果您的场景涉及将我们的解决方案嵌入到商业产品中,请通过Ultralytics 许可与我们联系。
我们的许可策略旨在确保我们开源项目的任何改进都能回馈社区。我们坚信开源,我们的使命是确保我们的贡献能够以造福所有人的方式被使用和扩展。
目标检测的演变
多年来,对象检测技术已经发生了显著的演变,从传统的计算机视觉技术发展到先进的深度学习模型。YOLO 模型系列一直处于这一发展的前沿,不断突破实时对象检测的可能性。
YOLO 的独特方法将对象检测视为一个单一的回归问题,通过一次评估直接从完整图像中预测边界框和类别概率。这种革命性的方法使 YOLO 模型比以前的两阶段检测器快得多,同时保持了高精度。
随着每个新版本的发布,YOLO 都引入了架构改进和创新技术,从而提升了各项指标的性能。YOLO26 延续了这一传统,融合了计算机视觉研究的最新进展,具有端到端无 NMS 推理和优化的边缘部署能力,适用于实际应用。
常见问题
什么是 Ultralytics YOLO?它如何改进目标检测?
Ultralytics YOLO 是备受赞誉的 YOLO (You Only Look Once) 系列,用于实时目标检测和图像分割。最新模型 YOLO26 在先前版本的基础上,引入了端到端无 NMS 推理和优化的边缘部署。YOLO 支持多种 视觉 AI 任务,例如 detect、segment、姿势估计、track 和分类。其高效架构确保了出色的速度和准确性,使其适用于各种应用,包括边缘设备和云 API。
如何开始 YOLO 的安装和设置?
YOLO 的入门非常快速和直接。您可以使用 pip 安装 Ultralytics 软件包,并在几分钟内启动并运行。这是一个基本的安装命令:
使用 pip 安装
pip install -U ultralytics
有关全面的分步指南,请访问我们的快速入门页面。此资源将帮助您完成安装说明、初始设置和运行您的第一个模型。
如何在我的数据集上训练自定义 YOLO 模型?
在您自己的数据集上训练自定义 YOLO 模型涉及几个详细的步骤:
- 准备带注释的数据集。
- 在 YAML 文件中配置训练参数。
- 使用
yolo TASK train命令开始训练。(每个TASK都有其自己的参数)
以下是对象检测任务的示例代码:
对象检测任务的训练示例
from ultralytics import YOLO
# Load a pretrained YOLO model (you can choose n, s, m, l, or x versions)
model = YOLO("yolo26n.pt")
# Start training on your custom dataset
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# Train a YOLO model from the command line
yolo detect train data=path/to/dataset.yaml epochs=100 imgsz=640
有关详细的演练,请查看我们的模型训练指南,其中包含优化训练过程的示例和技巧。
Ultralytics YOLO 有哪些可用的许可选项?
Ultralytics 为 YOLO 提供两种许可选项:
- AGPL-3.0 许可:此开源许可非常适合教育和非商业用途,可促进开放协作。
- 企业许可:此许可专为商业应用而设计,允许将 Ultralytics 软件无缝集成到商业产品中,而没有 AGPL-3.0 许可的限制。
有关更多详细信息,请访问我们的许可页面。
Ultralytics YOLO 如何用于实时目标跟踪?
Ultralytics YOLO 支持高效且可定制的多对象跟踪。要使用跟踪功能,您可以使用 yolo track 命令,如下所示:
视频对象跟踪示例
from ultralytics import YOLO
# Load a pretrained YOLO model
model = YOLO("yolo26n.pt")
# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")
# Perform object tracking on a video from the command line
# You can specify different sources like webcam (0) or RTSP streams
yolo track source=path/to/video.mp4
有关设置和运行对象跟踪的详细指南,请查看我们的跟踪模式文档,其中解释了实时场景中的配置和实际应用。