您的位置:首页 > 其它

SphereFace的翻译,解读以及训练

2017-10-19 20:00 176 查看
前段时间,由于工作需要,学习了一下论文《SphereFace: Deep Hypersphere Embedding for Face Recognition》,收获挺大的,这几天刚好有空,就整理了一下。博客分为三大部分,包括SphereFace的翻译,论文解读,以及模型的训练和测试。

论文翻译

这里只翻译论文中最核心的第3章中的3.1,3.2和3.3

3.1 回顾Softmax loss

我们回顾一下softmax loss的决策准则。在二分类的情况下,softmax loss的后验概率为:



公式中x就是学习到的特征向量,wi和bi就是最后一个全连接层对应类别i的权值和偏置。如果p1>p2,预测的结果就是类别1,如果p1<p2,预测的结果就是类别2。从公式中很容易看出,WT1x+b1和WT2x+b2决定了分类的结果。决策函数就是(W1−W2)x+b1−b2=0。WTix+bi可以被写成||WTi||||x||cos(θi)+bi,其中cos(θi)就是wi和x之间的夹角。如果我们归一化权重,并且将偏置设置为0,后验概率就变成了p1=||x||cos(θ1)和p2=||x||cos(θ2)。注意p1和p2共享相同的x,最后的结果取决于角度cos(θ1)和cos(θ2)。决策函数就变成了cos(θ1)−cos(θ2)=0。虽然上面的分析基于二分类,但是也适用于多分类。在训练的过程中,改进的softmaxloss(||Wi||=1,bi=0)使得来自于同一类的样本特征具有更小的角度θi(即更大的cosine距离)。为了给改进后的softmax loss一个表达式,我们首先定义输入特征xi和他的labelyi .原始的softmax loss可以写

成:


这里fj表示向量f的第j个元素(1<=j<=K,K就是类别数),N就是训练样本的个数。在CNN中,f通常就是全连接层W的输出,所以,fj=WTjxi+bj,fyi=WTyixi+byi,这里xi是第i个训练样本,wj表示w的第j列,wyi表示w的第yi列。我们可以进一步将公式3写成:



这里θj,i(0<=θj,i<=π)就是向量wj和xi之间的夹角。如上面分析,首先在每一次迭代中我们归一化权值||Wj||并且将偏置设置为0.然后我们可以将改进后的softmax loss写成:



虽然我们可以通过改进后基于角度的softmax loss学习特征,但是这些特征不一定就是可区分的。由于我们使用角度作为距离的矩阵,那么很自然的就可以将角度距离融合到学习到的特征来加强特征的可区分能力。本节最后,我们提出了一个新的方法来结合角度距离。

3.2 softmax loss中引进角度距离

我们没有设计一种新的loss函数,也没有构造一个softmax loss的加权组合(类似于对比loss),我们提出了一种更加自然的方法学习角度距离。从之前对softmax loss的分析来看,我们知道决策函数对特征分布的影响很大,所以我们的基本思想就是控制决策函数生成角度距离。我们首先使用二分类来解释一下我们的思路。

假设x是从类别1中学习到的特征,θi是x和Wi之间的角度,我们知道改进的softmax loss需要cos(θ1)>cos(θ2)才能正确分类x。但是如果我们使用cos(mθ1)>cos(θ2)(m是大于等于2的整数)来正确分类x会怎么样呢?有必要使得决策函数比以前更加严格,因为我们需要cos(θ1)比cos(θ2)更大。对于类别1来说cos(mθ1)=cos(θ2),类似的,当cos(mθ2)>cos(θ1)的时候,该特征属于类别2,对于类别2来说,决策函数就是cos(mθ2)=cos(θ1),假设所有的训练样本都被正确分类了,决策函数会生成一个m−1m+1θ12的角度距离,这里的θ12就是W1和W2的角度,从角度方面来看,当θ1<θ2m的时候,样本属于类别1,当θ2<θ1m的时候,样本属于类别1,两者都比原始的θ1<θ2和θ2<θ1更难,用公式来表示上面的思想就是:



其中θyi,i的范围是[0,πm] 。为了消除该限制,并且使得在CNN中最优,我们通过一个角度函数ψ(θyi,i)扩展cos(θyi,i)的定义范围,这个函数在[0,πm] 区间内等价于cos(θyi,i)。我们提出的A-softmax loss可以表示为:



其中我们定义:ψ(θyi,i)=(−1)kcos(mθyi,i)−2k,kπm<=θyi,i<=(k+1)πm,0<=k<=m−1。m>=1是一个整数,用来控制角度距离的大小。当m=1,A-softmax loss变成了改进后的softmax loss.我们可以从决策函数角度来解释A-softmax loss.A-softmax loss对于不同的类别采用了不同的决策函数,每个决策函数比原始的更加严格,因此产生了角度距离。决策函数的比较见表1.



表1。 二分类中决策函数的比较。注意θi就是Wi和x之间的夹角.

从原始的softmax loss到改进的softmax loss,从优化内积到优化角度。从改进的softmax loss到A-softmax loss,让决策函数更加严格并且更加具有可区分性。当m增大,角度距离也会增加,当m=1的时候,角度距离为0。

通过A-softmax loss的监督,CNN学习到基于几何的角度距离的脸部特征。因为A-softmax loss需要wi=1,bi=0.预测仅仅依赖于样本x和wi之间的角度。所以,x可以以最小的角度被分类为某一类。添加参数m的目的是在不同人之间学习角度距离。为了便于梯度计算和反向传播,我们使用只包含w和xi的表达式替换了cos(θj,i)和cos(mθyi,i),通过cosine和多角度公式的定义很容易做到这点。如果没有θ,我们能够计算x和w的导数,类似于softmax loss.

3.3 A-softmax loss的超球体解释

当m>=2的时候,对于正确分类来说A-softmax loss有更强的需求,这在不同类的特征之间产生了角度分类距离。A-softmax loss不仅使得学习到的特征更加可分,同样还具有更好的超球体解释。如图3所示



图3:欧式距离,改进的softmax loss和A-softmax loss的几何解释.第一行是2D特征约束,第二行是3D特征约束。橘黄色区域表示类别1的限制区间,绿色的表示类别2的限制区间。

A-softmax loss等价于在超球体空间学习特征,而欧式距离loss在欧式空间学习特征。简单起见,我们使用二分类来分析超球体解释。假设类别1的一个样本x和两列权值W1,W2.A-softmax的分类的准则是cos(mθ1)>cos(θ2),等价于mθ1<θ2,注意到在单位球体


中,θ1,θ2等价于他们对应的弧的长度ω1,ω2。因为||W||1=||W||2=1,决策依赖于弧的长度ω1,ω2。决策函数等价于mω1=ω2,x分类为类别1的区域为mω1<ω2。从几何角度来看,这是一个基于超球体空间的圆环区域。比如,在3D情况下,对应单位球体的一个圆环区域,如图3所示。注意,更大的m导致每类更小的圆环区域。为了更好的理解,图3提供了2D和3D的可视化图像。我们可以看到A-softmax loss在2D情况下使用了单位圆上的弧长约束,在3D情况下,使用了单位球体上的类圆区域约束。我们的分析表明A-softmax loss能够使得学习到的特征在超球体空间中更加可分。

论文解读

关于softmax loss的理解

阅读完这篇论文后,我对softmax loss有了更深的理解。

Softmax loss中的概率计算公式:



公式中x就是学习到的特征向量,wi和bi就是最后一个全连接层对应类别i的权值和偏置。

关于这个公式,借助CNN来理解一下。

以人脸识别经典的DeepID[1]模型为例,DeepID结构图:



论文见参考文献[1]



我们可以看出,全连接层fc1层就是对应DeepID结构图中的160维的DeepID特征,也就是我们要学习的特征,也就是softmax loss 概率公式中的x,而全连接层fc2层每个节点对应一个wi和bi(可以将每个节点看成一个特征图,只不过特征图大小为1*1),全连接层相当于做内积运算(所以prototxt中全连接层的type名叫InnerProduct),每个节点的输出就可以写成:wTix+bi,由于全连接层fc2层的输出就是softmax loss层的输入,所以wTix+bi就是公式中e的指数。

由softmax loss概率公式我们可以知道,每一类概率对应一个wTix+bi,所以公式中i的个数等于类别数,所以fc2层的输出向量的维度需要与类别数相等,这就是为什么分类问题中softmax loss层前面一层全连接层的节点数为什么总要等于类别数的原因。

论文思想

我们知道人脸识别最理想的特征是最大类内距小于最小类间距。在SphereFace之前的triplet loss,center loss也是为了达到这个目的。论文中的A-softmax loss并不是新的loss,其实还是原始的softmax loss,只是对原始的softmax loss公式做了变换,导致softmax loss层的输入发生了变化,也就是最后一层全连接层fc2的输出发生了变化。

原始softmax loss层中最后一个全连接层的输出是wTx+b,而a-softmax中,最后一个全连接层的输出由wTx+b转化为||w||||x||cos(θ)+b,如果对w归一化,且b=0,则可以简化为||x||cos(θ),这就导致了学习到的特征x发生了变化 (DeepID模型中x就是倒数第2个全连接层fc1层表示的特征向量)。论文通过该方法将特征x转换到了球体空间,使得学习到的人脸特征具有更好的可区分性。

实验

训练样本

本文实验中的训练样本采用了CASIA,对人脸进行了对齐(使用参考文献[2]中的算法),并做了crop。crop后的部分训练样本如下:



训练及测试

训练用的网络结构和训练参数直接使用了作者提供的,收敛速度较慢,最终softmax_loss降到2.0左右。在LFW上测试,对于每个pair,计算两个人脸提取出来的fc5层特征的cosine距离,并根据距离画ROC曲线



由ROC曲线可以看出,SphereFace的效果还是不错的。

2017-10-19 19:56:59

参考文献

[1] [2014 CVPR] Deep Learning Face Representation from Predicting 10,000 Classes

[2] [2014 CVPR] One Millisecond Face Alignment with an Ensemble of Regression Trees

非常感谢您的阅读,如果您觉得这篇文章对您有帮助,欢迎扫码进行赞赏。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: