多轮对话改写任务主要解决对话中的指代和省略问题,输入对话上下文,输出改写后的问题(示例参考代码范例);
该模型基于google/mt5-base在公开+业务数据集上finetune而得,适用于开放域对话场景。
模型结构与T5模型一致,模型结构的详细介绍,参考:Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer;
基座模型使用google/mt5-base,并在公开+业务数据集上finetune得到多轮对话改写模型。
本模型主要用于输入对话上下文生成改写后的问题,具体调用方式请参考代码示例。
在安装完成Modelscope之后即可使用多轮对话改写的能力
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
pipeline_ins = pipeline(task=Tasks.text2text_generation, model='damo/nlp_mt5_dialogue-rewriting_chinese-base',model_revision='v1.0.1')
result = pipeline_ins(input='杨阳胖吗[SEP]我一个同学叫杨阳[SEP]他多少斤')
print (result)
模型在开放域对话改写数据集上进行训练,在其他领域表现有待验证,请谨慎使用;