OFA表情包文本生成器
  • 模型资讯
  • 模型资料

OFA表情包文本生成器

News

  • 2023年2月:
    • 进一步扩大和过滤非法文本内容的,并原模型上继续迭代微调以产生更加多元化和健康的表情包文本, 并提供创空间体验不同版本效果。
  • 2023年1月:
    • 预处理的4W表情包数据集,在ofa-large模型上finetune后的微调模型,根据提供的图片生产对应的表情包文本。

表情包文本生成(中文)

什么是表情包文本生成?

表情包文本生成指的是给一张图片,配一个表情包style的文字。

快速玩起来

玩转OFA只需区区以下6行代码,就是如此轻松!如果你觉得还不够方便,请点击右上角Notebook按钮,我们为你提供了配备了GPU的环境,你只需要在notebook里输入提供的代码,就可以把OFA玩起来了!

letsgo

from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
from modelscope.outputs import OutputKeys

img_captioning = pipeline(Tasks.image_captioning, model='damo/ofa_image-caption_meme_large_zh',model_revision='v1.0.2')
result = img_captioning('http://xingchen-data.oss-cn-zhangjiakou.aliyuncs.com/maas/meme/mushroom_head1.png')
print(result[OutputKeys.CAPTION])  # ['我不想说话', '我是你爸爸']

OFA是什么?

OFA(One-For-All)是通用多模态预训练模型,使用简单的序列到序列的学习框架统一模态(跨模态、视觉、语言等模态)和任务(如图片生成、视觉定位、图片描述、图片分类、文本生成等),详见我们发表于ICML 2022的论文:OFA: Unifying Architectures, Tasks, and Modalities Through a Simple Sequence-to-Sequence Learning Framework,以及我们的官方Github仓库https://github.com/OFA-Sys/OFA




Github  |  Paper   |  Blog



OFA模型规模

ModelParams-enParams-zhBackboneHidden sizeIntermediate sizeNum. of headsEnc layersDec layers
OFATiny33M-ResNet502561024444
OFAMedium93M-ResNet1015122048844
OFABase180M160MResNet10176830721266
OFALarge470M440MResNet15210244096161212
OFAHuge930M-ResNet15212805120162412

OFA 模型任务矩阵

目前ModelScope上面所有已经上传的模型和任务可以在下面导航表格看到,点击链接可以跳转到相应modelcard。

模型规模 预训练 图像描述 视觉问答 视觉定位 视觉蕴含 文生图 图像分类 文字识别 文本摘要 文本分类
OFATiny 英文 英文 - 英文 英文 - - - - -
OFAMedium 英文 - - - - - - - - -
OFABase 中文/英文 中文电商 - - - - - 场景中文 - -
OFALarge 中文/英文 英文 英文 中文/英文 英文 英文 英文 - 英文 英文
OFAHuge 英文 英文 英文 - - - - - - -
OFA6B - 英文 - - - - - - - -

相关论文以及引用

如果你觉得OFA好用,喜欢我们的工作,欢迎引用:

@article{wang2022ofa,
  author    = {Peng Wang and
               An Yang and
               Rui Men and
               Junyang Lin and
               Shuai Bai and
               Zhikang Li and
               Jianxin Ma and
               Chang Zhou and
               Jingren Zhou and
               Hongxia Yang},
  title     = {OFA: Unifying Architectures, Tasks, and Modalities Through a Simple Sequence-to-Sequence
               Learning Framework},
  journal   = {CoRR},
  volume    = {abs/2202.03052},
  year      = {2022}
}