移动端语音唤醒模型,检测关键词为“你好问问”和“嗨小问”。
模型网络结构继承自论文《Compact Feedforward Sequential Memory Networks for Small-footprint Keyword Spotting》,其主体为4层cFSMN结构(如下图所示),参数量约750K,适用于移动端设备运行。
模型输入采用Fbank特征,训练阶段使用CTC-loss计算损失并更新参数,输出为基于char建模的中文全集token预测,token数共2599个。测试工具根据每一帧的预测数据进行后处理得到输入音频的实时检测结果。
模型训练采用"basetrain + finetune"的模式,basetrain过程使用大量内部移动端数据,在此基础上,使用出门问问开源数据进行微调得到输出模型。由于采用了中文char全量token建模,并使用充分数据进行basetrain,本模型支持基本的唤醒词/命令词自定义功能,但具体性能无法评估。如用户想验证更多命令词,可以通过页面右侧“在线体验”板块自定义设置并录音测试。
目前最新ModelScope版本已支持用户在basetrain模型基础上,使用其他关键词数据进行微调,得到新的语音唤醒模型。欢迎您通过小云小云模型了解唤醒模型定制的方法。
运行范围:
使用方式:
使用范围:
目标场景:
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
kwsbp_16k_pipline = pipeline(
task=Tasks.keyword_spotting,
model='damo/speech_charctc_kws_phone-wenwen')
kws_result = kwsbp_16k_pipline(audio_in='https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/KWS/pos_testset/nihaowenwen.wav')
print(kws_result)
audio_in参数说明:
@inproceedings{chen18c_interspeech,
author={Mengzhe Chen and ShiLiang Zhang and Ming Lei and Yong Liu and Haitao Yao and Jie Gao},
title={{Compact Feedforward Sequential Memory Networks for Small-footprint Keyword Spotting}},
year=2018,
booktitle={Proc. Interspeech 2018},
pages={2663--2667},
doi={10.21437/Interspeech.2018-1204}
}
@article{DBLP:journals/spl/HouSOHX19,
author = {Jingyong Hou and
Yangyang Shi and
Mari Ostendorf and
Mei{-}Yuh Hwang and
Lei Xie},
title = {Region Proposal Network Based Small-Footprint Keyword Spotting},
journal = {{IEEE} Signal Process. Lett.},
volume = {26},
number = {10},
pages = {1471--1475},
year = {2019},
url = {https://doi.org/10.1109/LSP.2019.2936282},
doi = {10.1109/LSP.2019.2936282}
}