SiameseUniNLU通用自然语言理解模型,基于提示(Prompt)+文本(Text)的构建思路,通过设计适配于多种任务的Prompt,并利用指针网络(Pointer Network)实现片段抽取(Span Extraction),从而实现对命名实体识别、关系抽取、事件抽取、属性情感抽取、情感分类、文本分类、文本匹配、自然语言推理、阅读理解等多类自然语言理解任务的统一处理。和市面上已有的自然语言理解类模型不同的是:
模型基于structbert-base-chinese在千万级远监督数据+有监督数据预训练得到,模型框架如下图:
你可以使用该模型,实现命名实体识别、关系抽取、事件抽取、属性情感抽取、指代消解、情感分类、文本分类、文本匹配、自然语言推理、阅读理解等各类信息抽取任务。
依据ModelScope的介绍,实验环境可分为两种情况。在此推荐使用第2种方式,点开就能用,省去本地安装环境的麻烦,直接体验ModelScope。
可参考ModelScope环境安装。
ModelScope直接集成了线上开发环境,用户可以直接在线训练、调用模型。
打开模型页面,点击右上角“在Notebook中打开”,选择机器型号后,即可进入线上开发环境。
import os
import json
from modelscope.trainers import build_trainer
from modelscope.msdatasets import MsDataset
from modelscope.utils.hub import read_config
from modelscope.metainfo import Metrics
from modelscope.utils.constant import DownloadMode
model_id = 'damo/nlp_structbert_siamese-uninlu_chinese-base'
WORK_DIR = '/tmp'
train_dataset = MsDataset.load('people_daily_ner_1998_tiny', namespace='damo', split='train', download_mode=DownloadMode.FORCE_REDOWNLOAD)
eval_dataset = MsDataset.load('people_daily_ner_1998_tiny', namespace='damo', split='validation', download_mode=DownloadMode.FORCE_REDOWNLOAD)
max_epochs=3
kwargs = dict(
model=model_id,
train_dataset=train_dataset,
eval_dataset=eval_dataset,
max_epochs=max_epochs,
work_dir=WORK_DIR)
trainer = build_trainer('siamese-uie-trainer', default_args=kwargs)
print('===============================================================')
print('pre-trained model loaded, training started:')
print('===============================================================')
trainer.train()
print('===============================================================')
print('train success.')
print('===============================================================')
for i in range(max_epochs):
eval_results = trainer.evaluate(f'{WORK_DIR}/epoch_{i+1}.pth')
print(f'epoch {i} evaluation result:')
print(eval_results)
print('===============================================================')
print('evaluate success')
print('===============================================================')
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
semantic_cls = pipeline(Tasks.siamese_uie, 'damo/nlp_structbert_siamese-uninlu_chinese-base', model_revision='v1.0')
# 命名实体识别 {实体类型: None}
semantic_cls(
input='1944年毕业于北大的名古屋铁道会长谷口清太郎等人在日本积极筹资,共筹款2.7亿日元,参加捐款的日本企业有69家。',
schema={
'人物': None,
'地理位置': None,
'组织机构': None
}
)
# 关系抽取 {主语实体类型: {关系(宾语实体类型): None}}
semantic_cls(
input='在北京冬奥会自由式中,2月8日上午,滑雪女子大跳台决赛中中国选手谷爱凌以188.25分获得金牌。2月9日上午,滑雪男子大跳台决赛中日本选手小泉次郎以188.25分获得银牌!',
schema={
'人物': {
'比赛项目(赛事名称)': None,
'参赛地点(城市)': None,
'获奖时间(时间)': None,
'选手国籍(国籍)': None
}
}
)
# 事件抽取 {事件类型(事件触发词): {参数类型: None}}
semantic_cls(
input='7月28日,天津泰达在德比战中以0-1负于天津天海。',
schema={
'胜负(事件触发词)': {
'时间': None,
'败者': None,
'胜者': None,
'赛事名称': None
}
}
)
# 属性情感抽取 {属性词: {情感词: None}}
semantic_cls(
input='很满意,音质很好,发货速度快,值得购买',
schema={
'属性词': {
'情感词': None,
}
}
)
# 允许属性词缺省,#表示缺省
semantic_cls(
input='#很满意,音质很好,发货速度快,值得购买',
schema={
'属性词': {
'情感词': None,
}
}
)
# 支持情感分类
semantic_cls(
input='很满意,音质很好,发货速度快,值得购买',
schema={
'属性词': {
"正向情感(情感词)": None,
"负向情感(情感词)": None,
"中性情感(情感词)": None
}
}
)
# 指代消解,判断选项通过英文逗号“,”隔开,拼接在输入文本前面并用“|”分隔
semantic_cls(
input='是的,不是|哥哥点了点头。“我这几年苦哇……现在玲玲也大一点了,所以……”他望着妹妹(候选词),脸上显出一副要求她(代词)谅解的表情。',
schema={
'在下面的描述中,代词“她”指代的是“妹妹”吗?': None
}
)
# 情感分类,情感标签通过英文逗号“,”隔开,拼接在输入文本前面并用“|”分隔;同时也支持情绪分类任务,换成相应情绪标签即可,e.g. "无情绪,积极,愤怒,悲伤,恐惧,惊奇"
semantic_cls(
input='正向,负向|有点看不下去了,看作者介绍就觉得挺矫情了,文字也弱了点。后来才发现 大家对这本书评价都很低。亏了。',
schema={
'情感分类': None
}
)
# 文本分类,文本标签通过英文逗号“,”隔开,拼接在输入文本前面并用“|”分隔
semantic_cls(
input='民生故事,文化,娱乐,体育,财经,房产,汽车,教育,科技,军事,旅游,国际,证券股票,农业三农,电竞游戏|学校召开2018届升学及出国深造毕业生座谈会就业指导',
schema={
'分类': None
}
)
# 文本匹配,文本相似度标签通过英文逗号“,”隔开,拼接在输入文本前面并用“|”分隔;输入文本由两段文本组成,并用“&”隔开
semantic_cls(
input='相似,不相似|摄像头区域遮挡屏幕&通话遮挡屏幕黑屏正常',
schema={
'文本匹配': None
}
)
# 文本匹配也可以用下面这种方式组织,判断选项通过英文逗号“,”隔开,拼接在输入文本前面并用“|”分隔;输入文本由两段文本组成,并分别用“句子1”和“句子2”区分
semantic_cls(
input='是的,不是|句子1:摄像头区域遮挡屏幕;句子2:通话遮挡屏幕黑屏正常',
schema={
'下面两句话的意思是否相同': None
}
)
# 自然语言推理,文本关系标签通过英文逗号“,”隔开,拼接在输入文本前面并用“|”分隔;输入文本由两段文本组成,并分别用“段落1”和“段落2”区分
semantic_cls(
input='蕴含,矛盾,中立|段落1:是,但是你比如说像现在这种情况,是不是就是说咱们离它就绝对人类是再也没有任何可能性了;段落2:我对人类可能性有所思考',
schema={
'段落2和段落1的关系是:': None
}
)
# 选择类阅读理解,选项通过英文逗号“,”隔开,拼接在输入文本前面并用“|”分隔
semantic_cls(
input='飞机票太贵,时间来不及,坐飞机头晕,飞机票太便宜|A:最近飞机票打折挺多的,你还是坐飞机去吧。B:反正又不是时间来不及,飞机再便宜我也不坐,我一听坐飞机就头晕。',
schema={
'B为什么不坐飞机?': None
}
)
# 抽取类阅读理解
semantic_cls(
input='大莱龙铁路位于山东省北部环渤海地区,西起位于益羊铁路的潍坊大家洼车站,向东经海化、寿光、寒亭、昌邑、平度、莱州、招远、终到龙口,连接山东半岛羊角沟、潍坊、莱州、龙口四个港口,全长175公里,工程建设概算总投资11.42亿元。铁路西与德大铁路、黄大铁路在大家洼站接轨,东与龙烟铁路相连。大莱龙铁路于1997年11月批复立项,2002年12月28日全线铺通,2005年6月建成试运营,是横贯山东省北部的铁路干线德龙烟铁路的重要组成部分,构成山东省北部沿海通道,并成为环渤海铁路网的南部干线。铁路沿线设有大家洼站、寒亭站、昌邑北站、海天站、平度北站、沙河站、莱州站、朱桥站、招远站、龙口西站、龙口北站、龙口港站。大莱龙铁路官方网站',
schema={
'大莱龙铁路位于哪里?': None
}
)
模型在较冷门的场景,效果可能不及预期。
@article{wang2019structbert,
title={Structbert: Incorporating language structures into pre-training for deep language understanding},
author={Wang, Wei and Bi, Bin and Yan, Ming and Wu, Chen and Bao, Zuyi and Xia, Jiangnan and Peng, Liwei and Si, Luo},
journal={arXiv preprint arXiv:1908.04577},
year={2019}
}
@inproceedings{Zhao2021AdjacencyLO,
title={Adjacency List Oriented Relational Fact Extraction via Adaptive Multi-task Learning},
author={Fubang Zhao and Zhuoren Jiang and Yangyang Kang and Changlong Sun and Xiaozhong Liu},
booktitle={FINDINGS},
year={2021}
}