DeiT-base复现,采用ImageNet数据训练。
创空间快速可视化展示: ViT图像分类-通用
本系列还有如下模型,欢迎试用:
采用Transformer经典的ViT-Base结构
本模型适用范围较广,支持ImageNet 1000类物体识别,也可作为下游任务的预训练backbone
在ModelScope框架上,提供输入图片,即可通过简单的Pipeline调用来使用。
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
img_path = 'https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/bird.JPEG'
image_classification = pipeline(Tasks.image_classification,
model='damo/cv_vit-base_image-classification_ImageNet-labels')
result = image_classification(img_path)
print(result)
测试时主要的预处理如下:
模型在ImageNet-1k val上进行测试,结果如下:
Model | top-1 acc | top-5 acc | #params | Remark |
---|---|---|---|---|
DeiT-base | 81.8 | 95.6 | 86M | official |
DeiT-base | 82.2 | 95.9 | 86M | modelscope |
使用托管在modelscope DatasetHub上的小型数据集mini_imagenet100进行finetune训练的示例代码:
from modelscope.msdatasets import MsDataset
from modelscope.metainfo import Trainers
from modelscope.trainers import build_trainer
import tempfile
model_id = 'damo/cv_vit-base_image-classification_ImageNet-labels'
# 加载数据
ms_train_dataset = MsDataset.load(
'mini_imagenet100', namespace='tany0699',
subset_name='default', split='train') # 加载训练集
ms_val_dataset = MsDataset.load(
'mini_imagenet100', namespace='tany0699',
subset_name='default', split='validation') # 加载验证集
tmp_dir = tempfile.TemporaryDirectory().name # 使用临时目录作为工作目录
# 修改配置文件
def cfg_modify_fn(cfg):
cfg.train.dataloader.batch_size_per_gpu = 16 # batch大小
cfg.train.dataloader.workers_per_gpu = 1 # 每个gpu的worker数目
cfg.train.max_epochs = 1 # 最大训练epoch数
cfg.model.mm_model.head.num_classes = 100 # 分类数
cfg.model.mm_model.train_cfg.augments[0].num_classes = 100 # 分类数
cfg.model.mm_model.train_cfg.augments[1].num_classes = 100 # 分类数
cfg.train.optimizer.lr = 1e-4 # 学习率
cfg.train.lr_config.warmup_iters = 1 # 预热次数
return cfg
# 构建训练器
kwargs = dict(
model=model_id, # 模型id
work_dir=tmp_dir, # 工作目录
train_dataset=ms_train_dataset, # 训练集
eval_dataset=ms_val_dataset, # 验证集
cfg_modify_fn=cfg_modify_fn # 用于修改训练配置文件的回调函数
)
trainer = build_trainer(name=Trainers.image_classification, default_args=kwargs)
# 进行训练
trainer.train()
# 进行评估
result = trainer.evaluate()
print('result:', result)
训练说明见示例代码中的注释,更详细的训练说明和用法见官方的训练文档。训练过程产生的log和模型权重文件保存在work_dir工作目录中,并以前缀为’best_'的文件保存了在验证集上最优精度的权重。evaluate()默认使用精度最高的模型权重进行评估。
使用训练好的模型对需要评估的数据集进行精度评估示例代码如下:
from modelscope.msdatasets import MsDataset
from modelscope.metainfo import Trainers
from modelscope.trainers import build_trainer
import tempfile
model_id = 'damo/cv_vit-base_image-classification_ImageNet-labels'
# 加载用于评估的数据集
ms_val_dataset = MsDataset.load(
'imagenet_val', namespace='tany0699',
subset_name='default', split='validation')
tmp_dir = tempfile.TemporaryDirectory().name # 使用临时目录作为工作目录
# 构建训练器
kwargs = dict(
model=model_id, # 模型id
work_dir=tmp_dir, # 工作目录
train_dataset=None,
eval_dataset=ms_val_dataset # 评估的数据集
)
trainer = build_trainer(name=Trainers.image_classification, default_args=kwargs)
# 开始评估
result = trainer.evaluate()
print('result:', result)
评估过程默认使用模型中自带的预训练权重进行评估。
如果你觉得这个该模型有所帮助,请考虑引用下面的相关的论文:
@InProceedings{pmlr-v139-touvron21a,
title = {Training data-efficient image transformers & distillation through attention},
author = {Touvron, Hugo and Cord, Matthieu and Douze, Matthijs and Massa, Francisco and Sablayrolles, Alexandre and Jegou, Herve},
booktitle = {International Conference on Machine Learning},
pages = {10347--10357},
year = {2021},
volume = {139},
month = {July}
}