VitDet图像目标检测
输入一张图片,输出图像中较通用目标(COCO-80类范围)的位置及类别。
  • 模型资讯
  • 模型资料

vit-object-detection模型介绍

Exploring Plain Vision Transformer Backbones for Object Detection文章复现,采用COCO数据集训练。

期望模型使用方式与适用范围

本模型适用范围较广,能对图片中包含的大部分前景物体(COCO 80类)进行定位。

如何使用

在ModelScope框架上,提供输入图片,即可以通过简单的Pipeline调用使用当前模型。

代码范例

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
object_detect = pipeline(Tasks.image_object_detection,model='damo/cv_vit_object-detection_coco')
img_path ='https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_detection.jpg'
result = object_detect(img_path)
print(result)

模型局限性以及可能的偏差

  • 使用coco2017对论文复现,指标略逊于论文指标(0.002)。
  • 召回目标coco-80类数据范围。

训练数据介绍

  • coco2017数据集,Microsoft团队提供的一个可以用来图像识别、检测和分割的数据集。COCO2017包含训练集118287张、验证集5000张、测试集40670张,共有80类物体。具体可见(https://cocodataset.org/#detection-2017)

模型训练流程

  • 模型训练
    使用ImageNet-1K上的预训练模型VitBase作为基础backbone,采取MaskRCNN结构复现论文结果。

预处理

  • 给定一张输入图像,分辨率归一化至(1024,1024),颜色值减均值除方差归一化处理。

数据评估及结果

Backbone Pretrain box mAP mask mAP Remark
ViT-Base ImageNet-1k 51.6 45.9 official
ViT-Base ImageNet-1k 51.1 45.5 unofficial
ViT-Base ImageNet-1k 51.4 45.7 modelscope

引用

@article{Li2022ExploringPV,
  title={Exploring Plain Vision Transformer Backbones for Object Detection},
  author={Yanghao Li and Hanzi Mao and Ross B. Girshick and Kaiming He},
  journal={ArXiv},
  year={2022},
  volume={abs/2203.16527}
}