本模型基于邻域最小风险优化策略,backbone选用先进的transformer-large模型,编码器和解码器深度分别为24和6,相关论文已发表于ACL 2022,并获得Outstanding Paper Award。
基于连续语义增强的神经机器翻译模型【论文链接】由编码器、解码器以及语义编码器三者构成。其中,语义编码器以大规模多语言预训练模型为基底,结合自适应对比学习,构建跨语言连续语义表征空间。此外,设计混合高斯循环采样策略,融合拒绝采样机制和马尔可夫链,提升采样效率的同时兼顾自然语言句子在离散空间中固有的分布特性。最后,结合邻域风险最小化策略优化翻译模型,能够有效提升数据的利用效率,显著改善模型的泛化能力和鲁棒性。
具体来说,我们将双语句子对两个点作为球心,两点之间的欧氏距离作为半径,构造邻接语义区域(即邻域),邻域内的任意一点均与双语句子对语义等价。为了达到这一点,我们引入切线式对比学习,通过线性插值方法构造困难负样例,其中负样本的游走范围介于随机负样本和切点之间。然后,基于混合高斯循环采样策略,从邻接语义分布中采样增强样本,通过对差值向量进行方向变换和尺度缩放,可以将采样目标退化为选择一系列的尺度向量。
本模型适用于具有一定数据规模(百万级以上)的所有翻译语向,同时能够与离散式数据增强方法(如back-translation)结合使用。
在ModelScope框架上,提供输入源文,即可通过简单的Pipeline调用来使用。
# 温馨提示: 使用pipeline推理及在线体验功能的时候,尽量输入单句文本,如果是多句长文本建议人工分句,否则可能出现漏译或未译等情况!!!
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
input_sequence = 'Elon Musk, co-fondateur et PDG de Tesla Motors.'
pipeline_ins_fr2en = pipeline(Tasks.translation, model='damo/nlp_csanmt_translation_fr2en')
pipeline_ins_en2zh = pipeline(Tasks.translation, model='damo/nlp_csanmt_translation_en2zh')
privot_sequence_en = pipeline_ins_fr2en(input=input_sequence)['translation']
outputs = pipeline_ins_en2zh(input=privot_sequence_en)
print(outputs['translation'])
# 支持batch推理
# 温馨提示: 使用pipeline推理及在线体验功能的时候,尽量输入单句文本,如果是多句长文本建议人工分句,否则可能出现漏译或未译等情况!!!
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
batch_input_sequences = ["Elon Musk, co-fondateur et PDG de Tesla Motors.", "La mission d'Alibaba Group est de faire des affaires sans difficulté dans le monde", "Quel temps fait-il aujourd'hui?"]
input_sequence = '<SENT_SPLIT>'.join(batch_input_sequences) # 用特定的连接符<SENT_SPLIT>,将多个句子进行串联
pipeline_ins_fr2en = pipeline(Tasks.translation, model='damo/nlp_csanmt_translation_fr2en')
pipeline_ins_en2zh = pipeline(Tasks.translation, model='damo/nlp_csanmt_translation_en2zh')
privot_sequence_en = pipeline_ins_fr2en(input=input_sequence)['translation']
outputs = pipeline_ins_en2zh(input=privot_sequence_en)
print(outputs['translation'].split('<SENT_SPLIT>'))
WMT18 (阿里翻译内部生产) | Remark |
---|---|
30.5 | DeepL |
23.3 | |
28.1 | ModelScope |
如果你觉得这个该模型对有所帮助,请考虑引用下面的相关的论文:
@inproceedings{wei-etal-2022-learning,
title = {Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation},
author = {Xiangpeng Wei and Heng Yu and Yue Hu and Rongxiang Weng and Weihua Luo and Rong Jin},
booktitle = {Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, ACL 2022},
year = {2022},
}