稳定调用及效果更好的API,详见视觉开放智能平台:人脸比对1:1、口罩人脸比对1:1、人脸搜索1:N、公众人物识别、明星识别。
人脸识别模型ArcFace, 推荐使用An Efficient Training Approach for Very Large Scale Face Recognition (代码地址)框架快速训练。
ArcFace为近几年人脸识别领域的代表性工作,被CVPR2019录取(论文地址), 代码地址),该方法主要贡献是提出了ArcFace loss, 在$x_i$和$W_{ji}$之间的θ上加上角度间隔m(注意是加在了角θ上),以加法的方式惩罚深度特征与其相应权重之间的角度,从而同时增强了类内紧度和类间差异。由于提出的加性角度间隔(additive angular margin)惩罚与测地线距离间隔(geodesic distance margin)惩罚在归一化的超球面上相等,因此作者将该方法命名为ArcFace。此外作者在之后的几年内持续优化该算法,使其一直保持在sota性能。
本模型可以检测输入图片中人脸的特征
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
from modelscope.outputs import OutputKeys
import numpy as np
arc_face_recognition_func = pipeline(Tasks.face_recognition, 'damo/cv_ir50_face-recognition_arcface')
img1 = 'https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/face_recognition_1.png'
img2 = 'https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/face_recognition_2.png'
emb1 = arc_face_recognition_func(img1)[OutputKeys.IMG_EMBEDDING]
emb2 = arc_face_recognition_func(img2)[OutputKeys.IMG_EMBEDDING]
sim = np.dot(emb1[0], emb2[0])
print(f'Face cosine similarity={sim:.3f}, img1:{img1} img2:{img2}')
Method | IJBC(1e-5) | IJBC(1e-4) | MFR-ALL |
---|---|---|---|
ArcFace | 94.07 | 95.97 | 75.13 |
以下是ModelScope上人脸相关模型:
序号 | 模型名称 |
---|---|
1 | RetinaFace人脸检测模型 |
2 | MogFace人脸检测模型-large |
3 | TinyMog人脸检测器-tiny |
4 | ULFD人脸检测模型-tiny |
5 | Mtcnn人脸检测关键点模型 |
6 | ULFD人脸检测模型-tiny |
序号 | 模型名称 |
---|---|
1 | 口罩人脸识别模型FaceMask |
2 | 口罩人脸识别模型FRFM-large |
3 | IR人脸识别模型FRIR |
4 | ArcFace人脸识别模型 |
5 | IR人脸识别模型FRIR |
序号 | 模型名称 |
---|---|
1 | 人脸活体检测模型-IR |
2 | 人脸活体检测模型-RGB |
3 | 静默人脸活体检测模型-炫彩 |
序号 | 模型名称 |
---|---|
1 | FLCM人脸关键点置信度模型 |
序号 | 模型名称 |
---|---|
1 | 人脸表情识别模型FER |
2 | 人脸属性识别模型FairFace |
本模型及代码来自开源社区(地址),请遵守相关许可。
如果你觉得这个该模型对有所帮助,请考虑引用下面的相关的论文:
@inproceedings{deng2019arcface,
title={Arcface: Additive angular margin loss for deep face recognition},
author={Deng, Jiankang and Guo, Jia and Xue, Niannan and Zafeiriou, Stefanos},
booktitle={Proceedings of the IEEE/CVF conference on computer vision and pattern recognition},
pages={4690--4699},
year={2019}
}