DAMOYOLO-高性能通用检测模型-M
DAMOYOLO是一款面向工业落地的高性能检测框架,精度和速度超越当前的一众典型YOLO框架(YOLOE、YOLOv6、YOLOv7)。基于TinyNAS技术,DAMOYOLO能够针对不同的硬件算力,进行低成本的模型定制化搜索。这里仅提供DAMOYOLO-M模型,更多模型请参考README。
  • 模型资讯
  • 模型资料

模型描述

这里我们提供基于业界领先的目标检测框架DAMO-YOLO训练的检测模型:DAMO-YOLO-M。DAMO-YOLO是一个面向工业落地的目标检测框架,兼顾模型速度与精度,其训练的模型效果超越了目前的一众YOLO系列方法,并且仍然保持极高的推理速度。DAMO-YOLO引入TinyNAS技术,使得用户可以根据硬件算力进行低成本的检测模型定制,提高硬件利用效率并且获得更高精度。另外,DAMO-YOLO还对检测模型中的neck、head结构设计,以及训练时的标签分配、数据增广等关键因素进行了优化,具体细节可以参考我们的开源代码技术报告DAMO-YOLO-M是DAMO-YOLO提供的一系列模型中,平衡了速度和精度的最优模型之一。

模型评测

Model size mAPval
0.5:0.95
Latency(ms)
T4-TRT-FP16
FLOPs
(G)
Parameters(M)
YOLOX-M 640 46.9 6.46 73.8 25.3
YOLOv5-M 640 45.4 5.71 49.0 21.2
YOLOv6-M 640 49.5 5.72 82.2 34.3
YOLOv7 640 51.2 9.08 104.7 36.9
PP-YOLOE-M 640 49.0 6.67 49.9 23.4
DAMO-YOLO-M 640 50.0 5.62 61.8 28.2
  • 表中汇报的mAP是COCO2017 val集上的结果。
  • 表中汇报的latency不包括后处理(nms)时间,其测试条件为:T4 GPU,TensorRT=7.2.1.6, CUDA=10.2, CUDNN=8.0.0.1。

使用范围

本模型适用范围较广,能对图片中包含的大部分前景物体(COCO 80类)进行定位。

使用方法

在ModelScope框架上,提供输入图片,即可以通过简单的Pipeline调用使用当前模型。具体代码示例如下:

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
object_detect = pipeline(Tasks.image_object_detection,model='damo/cv_tinynas_object-detection_damoyolo-m')
img_path ='https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_detection.jpg'
result = object_detect(img_path)

模型可视化效果

引用

 @article{damoyolo,
  title={DAMO-YOLO: A Report on Real-Time Object Detection Design},
  author={Xianzhe Xu, Yiqi Jiang, Weihua Chen, Yilun Huang, Yuan Zhang and Xiuyu Sun},
  journal={arXiv preprint arXiv:2211.15444v2},
  year={2022}
}