mengzi-bert-base-fin是一个针对金融场景的领域语言模型。本模型在mengzi-bert-base模型基础上,
继续使用20G财经新闻和研究报告进行微调。
详细的技术报告请参考:Mengzi: Towards Lightweight yet Ingenious Pre-trained Models for Chinese
孟子中文Bert预训练模型与Bert结构相同,不包含下游任务,需要在特定任务上 Finetune 后使用。
Bert模型的详细介绍见:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
在预训练技术上,不同于Bert,孟子采用了:
本模型主要用于中文相关下游任务微调,也可以直接使用于完形填空任务。用户可以基于自有训练数据进行微调,具体调用方式请参考代码示例。
在安装完成Modelscope-lib之后即可进行下游任务finetune,下面给了一个直接使用本模型进行完形填空的范例。
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
fill_mask_zh = pipeline(Tasks.fill_mask, model='langboat/mengzi-bert-base-fin')
result_zh = fill_mask_zh('生活的真谛是[MASK]。')
print(result_zh['text'])
本模型基于20G财经新闻和研究报告(金融领域)进行微调,在其他垂直领域文本上的效果会有降低,请用户自行评测后决定如何使用。
如果我们的模型对您有帮助,请您引用我们的文章:
@misc{zhang2021mengzi,
title={Mengzi: Towards Lightweight yet Ingenious Pre-trained Models for Chinese},
author={Zhuosheng Zhang and Hanqing Zhang and Keming Chen and Yuhang Guo and Jingyun Hua and Yulong Wang and Ming Zhou},
year={2021},
eprint={2110.06696},
archivePrefix={arXiv},
primaryClass={cs.CL}
}