OFA通过描述定位图像物体-中文-通用领域-large
中文视觉定位任务:给定一张图片,一段描述,通过描述找到图片对应的物体。
  • 模型资讯
  • 模型资料

OFA-视觉定位 (中文)

视觉定位是什么?

如果你想找出某个物体在图片上的位置,你只需要输入对这个物体的描述,比如“一个圆头的蓝色宝可梦”, OFA模型便能框出它的所在位置。本页面右侧提供了在线体验的服务,欢迎使用!

本系列还有如下模型,欢迎试用:

快速玩起来

玩转OFA只需区区以下数行代码,就是如此轻松!如果你觉得还不够方便,请点击右上角Notebook按钮,我们为你提供了配备好的环境(可选CPU/GPU),你只需要在notebook里输入提供的代码,就可以把OFA玩起来了!

皮卡丘

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
from modelscope.outputs import OutputKeys
ofa_pipe = pipeline(
    Tasks.visual_grounding,
    model='damo/ofa_visual-grounding_refcoco_large_zh'
)
image = 'https://xingchen-data.oss-cn-zhangjiakou.aliyuncs.com/maas/visual-grounding/visual_grounding.png'
text = '一个圆头的蓝色宝可梦'
input = {'image': image, 'text': text}
result = ofa_pipe(input)
print(result[OutputKeys.BOXES])

OFA是什么?

OFA(One-For-All)是通用多模态预训练模型,使用简单的序列到序列的学习框架统一模态(跨模态、视觉、语言等模态)和任务(如图片生成、视觉定位、图片描述、图片分类、文本生成等),详见我们发表于ICML 2022的论文:OFA: Unifying Architectures, Tasks, and Modalities Through a Simple Sequence-to-Sequence Learning Framework,以及我们的官方Github仓库https://github.com/OFA-Sys/OFA




Github  |  Paper   |  Blog



OFA模型规模:

ModelParams-enParams-zhBackboneHidden sizeIntermediate sizeNum. of headsEnc layersDec layers
OFATiny33M-ResNet502561024444
OFAMedium93M-ResNet1015122048844
OFABase180M160MResNet10176830721266
OFALarge470M440MResNet15210244096161212
OFAHuge930M-ResNet15212805120162412

为什么OFA是视觉定位的最佳选择?

OFA在视觉定位任务的经典公开数据集RefCOCO、RefCOCO+、RefCOCOg均取得当前最优表现,具体结果如下:

TaskRefCOCORefCOCO+RefCOCOg
MetricAcc@0.5
Splitval / test-a / test-bval / test-a / test-bval-u / test-u
OFABase88.48 / 90.67 / 83.3081.39 / 87.15 / 74.2982.29 / 82.31
OFALarge90.05 / 92.93 / 85.2685.80 / 89.87 / 79.2285.89 / 86.55
OFAHuge92.04 / 94.03 / 88.4487.86 / 91.70 / 80.7188.07 / 88.78

模型训练流程

训练数据介绍

本模型训练数据集是refcoco翻译数据集。

训练流程

finetune能力请参考OFA Tutorial 1.4节。

模型局限性以及可能的偏差

训练数据集自身有局限,有可能产生一些偏差,请用户自行评测后决定如何使用。

相关论文以及引用信息

如果你觉得OFA好用,喜欢我们的工作,欢迎引用:

@article{wang2022ofa,
  author    = {Peng Wang and
               An Yang and
               Rui Men and
               Junyang Lin and
               Shuai Bai and
               Zhikang Li and
               Jianxin Ma and
               Chang Zhou and
               Jingren Zhou and
               Hongxia Yang},
  title     = {OFA: Unifying Architectures, Tasks, and Modalities Through a Simple Sequence-to-Sequence
               Learning Framework},
  journal   = {CoRR},
  volume    = {abs/2202.03052},
  year      = {2022}
}