ECAPA-TDNN模型是基于时延神经网络构建的说话人模型,由于识别性能优异,已经被广泛使用在说话人识别领域中。该模型还可以用于说话人确认、说话人日志等任务。
ECAPA-TDNN在传统的TDNN模型上有3种改进。第一,融合了一维的Res2Net层和Squeeze-and-Excitation模块,对特征channel之间的关系进行建模。第二,融合多个层级特征,同时利用网络浅层和深层的信息。第三,采用了基于attention机制的pooling层,生成基于全局attention的说话人特征。
本模型使用公开的英文说话人数据集VoxCeleb2进行训练,可以对16k采样率的英文音频进行说话人识别。
对于有开发需求的使用者,特别推荐您使用Notebook进行离线处理。先登录ModelScope账号,点击模型页面右上角的“在Notebook中打开”按钮出现对话框,首次使用会提示您关联阿里云账号,按提示操作即可。关联账号后可进入选择启动实例界面,选择计算资源,建立实例,待实例创建完成后进入开发环境,输入api调用实例。
from modelscope.pipelines import pipeline
sv_pipeline = pipeline(
task='speaker-verification',
model='damo/speech_ecapa-tdnn_sv_en_voxceleb_16k'
)
speaker1_a_wav = 'https://modelscope.cn/api/v1/models/damo/speech_campplus_sv_en_voxceleb_16k/repo?Revision=master&FilePath=examples/speaker1_a_en_16k.wav'
speaker1_b_wav = 'https://modelscope.cn/api/v1/models/damo/speech_campplus_sv_en_voxceleb_16k/repo?Revision=master&FilePath=examples/speaker1_b_en_16k.wav'
speaker2_a_wav = 'https://modelscope.cn/api/v1/models/damo/speech_campplus_sv_en_voxceleb_16k/repo?Revision=master&FilePath=examples/speaker2_a_en_16k.wav'
# 相同说话人语音
result = sv_pipeline([speaker1_a_wav, speaker1_b_wav])
print(result)
# 不同说话人语音
result = sv_pipeline([speaker1_a_wav, speaker2_a_wav])
print(result)
# 可以自定义得分阈值来进行识别
result = sv_pipeline([speaker1_a_wav, speaker2_a_wav], thr=0.6)
print(result)
已在3D-Speaker开源了训练、测试和推理代码,使用者可按下面方式下载安装使用:
git clone https://github.com/alibaba-damo-academy/3D-Speaker.git && cd 3D-Speaker
conda create -n 3D-Speaker python=3.8
conda activate 3D-Speaker
pip install -r requirements.txt
当前只推送了CAM++在VoxCeleb集上的训练样例,后续将推送ECAPATDNN、ResNet等更多的说话人模型。
cd egs/voxceleb/sv-cam++
# 需要在run.sh中提前配置训练使用的GPU信息,默认是4卡
bash run.sh
@article{ecapa_tdnn,
title={ECAPA-TDNN: Emphasized Channel Attention, Propagation and Aggregation in TDNN Based Speaker Verification},
author={Brecht, Desplanques and Jenthe, Thienpondt and Kris, Demuynck},
journal={arXiv preprint arXiv:2005.07143},
}