1 前言
在实现一个优秀人脸识别系统的过程中,应该有以下重要环节。
1、干净而且大量的数据。
2、优秀的网络结构。
3、优秀的网络指挥棒(损失函数)。
4、由以上1,2,3决定一个优秀的模型,作为一个大型的分类过程,优秀的模型能够提取到人脸更加独有的特征,具有更好的“辨别特性”。
5、部署途径
(1)提取底图特征并保存数据库,就是要有每一个人的标准人脸图像,经过模型进行一遍提取之后的特征保存到数据库当中。
(2)索引匹配的人脸特征,对检测到的人进行检测、对齐矫正并经过模型提取到“独有”的特征,然后利用该特征与数据库中的人脸特征进行匹配,输出匹配程度最高的前几个人。
2 数据清洗
先用第三方的人脸识别对我的数据集进行一次特征提取和匹配,对于数据集中的每一个人我有一张标准的底图,提取了底图的特征并对每个人的所有图片进行匹配,将不匹配的图片剪切出来进行人工筛选,人多的话并合理用一些工具软件,用上几天就能将人脸数据集清洗得很好了,但不能随意删除图片,确认是不同的人或图片质量十分差才能清掉。
3 数据检测对齐矫正
数据检测对齐矫正,可以用ssh和dlib,也可以直接用作者提供的face_align.py,ssh表现效果确实比mtcnn这个好,但是相对麻烦了一点,所以我这里直接用了作者的align_dataset_mtcnn.py。
python face_align.py --source_root E:/6T/data/test --dest_root E:/6T/data/test_Aligned
4 制作rec和idx的数据集
训练集需要.rec,.idx,*.lst,property,其中rec是已经对齐完成的图像数据,idx是索引,需要用到lst来生成rec和idx。
lst中包含的内容如下:1 path/Adam_Brody/Adam_Brody_277.png 25
中间用\t(TAB)隔开,用空格会报错,第一个参数代表是否对齐,第二个参数代表图片的路径,第三个参数代表图片的标签,整个lst文件要求标签必须从0并从小到大排列,不然生成的rec和idx会出错。
property是属性文件,里面内容是类别数和图像大小,例如 1000,112,112
其中1000代表人脸的类别数目,图片格式为112x112
4.1 生成.lst
import os
from easydict import EasyDict as edict
input_dir = 'E:\data\image'
ret = []
label = 0
person_names = []
for person_name in os.listdir(input_dir):
person_names.append(person_name)
person_names = sorted(person_names)
for person_name in person_names:
_subdir = os.path.join(input_dir, person_name)
if not os.path.isdir(_subdir):
continue
_ret = []
for img in os.listdir(_subdir):
fimage = edict()
fimage.id = os.path.join(_subdir, img)
fimage.classname = str(label)
fimage.image_path = os.path.join(_subdir, img)
fimage.bbox = None
fimage.landmark = None
_ret.append(fimage)
ret += _ret
label += 1
for item in ret:
print("%d\t%s\t%d" % (1, item.image_path, int(item.classname)))
手动生成:python dir2lst.py > E:\data\image.lst
4.2 由.lst 和 property 来生成 .rec .idx
手动编辑:property中就定义数据集的格式,整体内容如下:1000,112,112 ,其中1000代表人脸的类别数目,图片格式为112x112。
python face2rec2.py E:\data\
5 模型训练
训练的话最好写成一个脚本,直接运行脚本比较好修改参数。
configurations = {
1: dict(
SEED=1337, # random seed for reproduce results
DATA_ROOT='E:/6T/data/faces_glintasia',
# the parent root where your train/val/test data are stored
MODEL_ROOT='E:/6T/buffer/model', # the root to buffer your checkpoints
LOG_ROOT='E:/6T/buffer/log', # the root to log your train/val status
BACKBONE_RESUME_ROOT='./', # the root to resume training from a saved checkpoint
HEAD_RESUME_ROOT='./', # the root to resume training from a saved checkpoint
BACKBONE_NAME='IR_50',
# support: ['ResNet_50', 'ResNet_101', 'ResNet_152', 'IR_50', 'IR_101', 'IR_152', 'IR_SE_50', 'IR_SE_101', 'IR_SE_152']
HEAD_NAME='ArcFace', # support: ['Softmax', 'ArcFace', 'CosFace', 'SphereFace', 'Am_softmax']
LOSS_NAME='Focal', # support: ['Focal', 'Softmax']
INPUT_SIZE=[112, 112], # support: [112, 112] and [224, 224]
RGB_MEAN=[0.5, 0.5, 0.5], # for normalize inputs to [-1, 1]
RGB_STD=[0.5, 0.5, 0.5],
EMBEDDING_SIZE=512, # feature dimension
BATCH_SIZE=16,
DROP_LAST=True, # whether drop the last batch to ensure consistent batch_norm statistics
LR=0.01, # initial LR
NUM_EPOCH=125, # total epoch number (use the firt 1/25 epochs to warm up)
WEIGHT_DECAY=5e-4, # do not apply to batch_norm parameters
MOMENTUM=0.9,
STAGES=[20, 40, 60], # epoch stages to decay learning rate
DEVICE=torch.device("cuda:0" if torch.cuda.is_available() else "cpu"),
MULTI_GPU=True,
# flag to use multiple GPUs; if you choose to train with single GPU, you should first run "export CUDA_VISILE_DEVICES=device_id" to specify the GPU card you want to use
GPU_ID=[0], # specify your GPU ids
PIN_MEMORY=True,
NUM_WORKERS=0,
),
}
5 参考
https://github.com/ZhaoJ9014/face.evoLVe.PyTorch封装的网络框架
Insightface制作rec和idx的训练集
Insightface/Arcface项目实践流程