softmax详细的梯度求导

参考原文:https://blog.csdn.net/wfei101/article/details/80807749
https://blog.csdn.net/fsdfasfawre/article/details/80586123

本文通过一个简单的例子来看softmax的梯度求导过程.

1 softmax函数

softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类!

假设我们有一个数组 z = ( 3 , 1 , 3 ) T z=(3,1,-3)^T ,那么这个元素的softmax值就是 y i = e z i j e z j y_i=\frac{e^{z_i}}{\sum_j e^{z_j}} .

更形象的如下图表示:

0507s1

注意: 要求编写python代码,完成图示的计算.

2 softmax相关求导

当我们对分类的Loss进行改进的时候,我们要通过梯度下降,每次优化一个step大小的梯度,这个时候我们就要求Loss对每个权重矩阵的偏导,然后应用链式法则。在这个过程中,你会发现用了softmax函数之后,梯度求导过程非常非常方便!

下面我们举出一个简单例子,原理一样,目的是为了帮助大家容易理解!

0508s1

我们能得到下面公式:

z 1 = w 11 o 1 + w 12 o 2 + w 13 o 3 z_1=w_{11}o_1+w_{12}o_2+w_{13}o_3
z 2 = w 21 o 1 + w 22 o 2 + w 23 o 3 z_2=w_{21}o_1+w_{22}o_2+w_{23}o_3
z 3 = w 31 o 1 + w 32 o 2 + w 33 o 3 z_3=w_{31}o_1+w_{32}o_2+w_{33}o_3

其中, z 4 , z 5 , z 6 z_4,z_5,z_6 分别代表结点4,5,6的输出, o 1 , o 2 , o 3 o_1,o_2,o_3 代表是结点1,2,3往后传的输入.

那么我们可以经过softmax函数得到:

a 1 = e z 1 e z 1 + e z 2 + e z 3 , a_1=\frac{e^{z_1}}{e^{z_1}+e^{z_2}+e^{z_3}},
a 2 = e z 2 e z 1 + e z 2 + e z 3 , a_2=\frac{e^{z_2}}{e^{z_1}+e^{z_2}+e^{z_3}},
a 3 = e z 3 e z 1 + e z 2 + e z 3 a_3=\frac{e^{z_3}}{e^{z_1}+e^{z_2}+e^{z_3}} .

好了,我们的重头戏来了,怎么根据求梯度,然后利用梯度下降方法更新梯度!

要使用梯度下降,肯定需要一个损失函数,这里我们使用交叉熵作为我们的损失函数,为什么使用交叉熵损失函数,不是这篇文章重点,后面有时间会单独写一下为什么要用到交叉熵函数(这里我们默认选取它作为损失函数)

交叉熵函数形式如下:

L o s s = i y i l n a i Loss=-\sum_{i}y_i lna_i
其中y代表我们的真实值,a代表我们softmax求出的值。i代表的是输出结点的标号!在上面例子,i就可以取值为1,2,33三个结点(当然我这里只是为了简单,真实应用中可能有很多结点).

参数的形式在该例子中,总共分为w11,w12,w13,w21,w22,w23,w31,w32,w33这些,那么比如我要求出w11,w12,w13的偏导,就需要将Loss函数求偏导传到结点4,然后再利用链式法则继续求导即可,举个例子此时求w41的偏导为:

L o s s w 11 = L o s s a 1 a 1 z 1 z 1 w 11 = 1 a 1 a 1 z 1 o 1 \begin{array}{lcl} \frac{\partial Loss}{\partial w_{11}}&=&\frac{\partial Loss}{\partial a_1}\frac{\partial a_1}{\partial z_1}\frac{\partial z_1}{\partial w_{11}}\\ &=&-\frac{1}{a_1}\frac{\partial a_1}{\partial z_1}o_1 \end{array}

其中, ( z 1 = w 11 o 1 + w 12 o 2 + w 13 o 3 ) (z_1=w_{11}o_1+w_{12}o_2+w_{13}o_3) ,则关键求出 a 1 z 1 \frac{\partial a_1}{\partial z_1} , w 21 ,   , w 33 w_{21},\cdots,w_{33} 等参数的偏导同理可以求出.

这里分为俩种情况:

如果 j = i j=i :

a j z i = z i ( e z j k e z k ) = ( e z j ) k e z k e z j e z i ( k e z k ) 2 = e z j k e z k e z j k e z k e z i k e z k = a j ( 1 a i ) \begin{array}{lcl} \frac{\partial a_j}{\partial z_i}&=&\frac{\partial}{\partial z_i}(\frac{e^{z_j}}{\sum_k e^{z_k}})\\ &=& \frac{(e^{z_j})'\cdot \sum_k e^{z_k}-e^{z_j}\cdot e^{z_i}}{(\sum_k e^{z_k})^2}\\ &=&\frac{e^{z_j}}{\sum_k e^{z_k}}-\frac{e^{z_j}}{\sum_k e^{z_k}}\cdot \frac{e^{z_i}}{\sum_k e^{z_k}}=a_j(1-a_i) \end{array}

j=i对应例子里就是如下图所示:
比如我选定了j为1,那么就是说我现在求导传到1结点这!

从而, L o s s w 11 = 1 a 1 a 1 z 1 o 1 = 1 a 1 a 1 ( 1 a 1 ) o 1 = ( 1 a 1 ) o 1 \frac{\partial Loss}{\partial w_{11}}=-\frac{1}{a_1}\frac{\partial a_1}{\partial z_1} o_1=-\frac{1}{a_1} a_1(1-a_1) o_1=-(1-a_1)o_1 .

3 softmax和交叉熵的原理

一般情况下,在神经网络中,最后一个输出层的节点个数与分类任务的目标数相等。假设最后的节点数为N,那么对于每一个样例,神经网络可以得到一个N维的数组作为输出结果,数组中每一个维度会对应一个类别。在最理想的情况下,如果一个样本属于k,那么这个类别所对应的的输出节点的输出值应该为1,而其他节点的输出都为0,即[0,0,1,0,….0,0],这个数组也就是样本的Label,是神经网络最期望的输出结果,交叉熵就是用来判定实际的输出与期望的输出的接近程度!

3.1 Softmax回归处理

神经网络的原始输出不是一个概率值,实质上只是输入的数值做了复杂的加权和与非线性处理之后的一个值而已,那么如何将这个输出变为概率分布?

这就是Softmax层的作用,假设神经网络的原始输出为 y 1 , y 2 ,   , y n y_1,y_2,\cdots,y_n 那么经过Softmax回归处理之后的输出为:

s o f t m a x ( y i ) = e y i j = 1 n e y j , \qquad softmax(y_i)=\frac{e^{y_i}}{\sum\limits_{j=1}^n e^{y_j}},

而单个节点的输出变成的一个概率值,经过Softmax处理后结果作为神经网络最后的输出。

3.2 交叉熵的原理

交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。假设概率分布p为期望输出,概率分布q为实际输出,H(p,q)为交叉熵,则:
H ( p , q ) = x p ( x ) log q ( x ) H(p,q)=-\underset{x}{\sum}p(x)\log q(x)
举个例子: 假设N=3,期望输出为p=(1,0,0),实际输出q1=(0.5,0.2,0.3),q2=(0.8,0.1,0.1),那么:

H ( p , q 1 ) = ( 1 × log 0.5 + 0 × log 0.2 + 0 × log 0.3 = 0.3 , H(p,q_1)=-(1\times \log^{0.5}+0\times \log^{0.2}+0\times \log^{0.3}=0.3,

H ( p , q 2 ) = ( 1 × log 0.8 + 0 × log 0.1 + 0 × log 0.1 ) = 0.1. H(p,q_2)=-(1\times \log^{0.8}+0\times \log^{0.1}+0\times \log^{0.1})=0.1.

除此之外,交叉熵还有另一种表达形式,还是使用上面的假设条件:

H ( p , q ) = x ( p ( x ) log q ( x ) + ( 1 p ( x ) ) log ( 1 q ( x ) ) ) H(p,q)=-\underset{x}{\sum}(p(x)\log q(x)+(1-p(x))\log(1-q(x)))

其结果为: H ( p , q 1 ) = 0.55 , H ( p , q 2 ) = 0.19. H(p,q_1)=0.55,H(p,q_2)=0.19.

以上的所有说明针对的都是单个样例的情况,而在实际的使用训练过程中,数据往往是组合成为一个batch来使用,所以对用的神经网络的输出应该是一个m*n的二维矩阵,其中m为batch的个数,n为分类数目,而对应的Label也是一个二维矩阵,还是拿上面的数据,组合成一个batch=2的矩阵:

q = ( 0.5 0.2 0.3 0.8 0.1 0.1 ) , q = ( 1 0 0 1 0 0 ) . q=\left(\begin{matrix}0.5 & 0.2 & 0.3 \\ 0.8 & 0.1 & 0.1 \end{matrix}\right), q=\left(\begin{matrix}1 & 0 & 0\\ 1 & 0 & 0 \end{matrix}\right ).

所以交叉熵的结果应该是一个列向量(根据第一种方法):
H ( p , q ) = ( 0.3 0.1 ) . H(p,q)=\begin{pmatrix}0.3 \\ 0.1 \end{pmatrix}.

而对于一个batch,最后取平均为0.2。

3.3 softmax的求导:

假设有n个输入 ( z 1 , z 2 ,   , z n ) (z_1,z_2,\cdots,z_n) ,将这n个输入到softmax函数得到n个输出 ( a 1 , a 2 ,   , a n ) (a_1,a_2,\cdots,a_n) . ( a 1 , a 2 ,   , a n ) (a_1,a_2,\cdots,a_n) 分别对 ( z 1 , z 2 ,   , z n ) (z_1,z_2,\cdots,z_n) 求偏导,得到雅克比矩阵如下:

a z = ( a 1 z 1 a 1 z 2 a 1 z n a 2 z 1 a 2 z 2 a 2 z n a n z 1 a n z 2 a n z n ) \frac{\partial a}{\partial z}=\begin{pmatrix} \frac{\partial a_1}{\partial z_1} & \frac{\partial a_1}{\partial z_2} & \cdots & \frac{\partial a_1}{\partial z_n} \\ \frac{\partial a_2}{\partial z_1} & \frac{\partial a_2}{\partial z_2} & \cdots & \frac{\partial a_2}{\partial z_n} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial a_n}{\partial z_1} & \frac{\partial a_n}{\partial z_2} & \cdots & \frac{\partial a_n}{\partial z_n} \\ \end{pmatrix}

这里softmax是一个 R n R n R^n\rightarrow R^n 的向量函数, a = s o f t m a x ( z ) a=softmax(z) .

严格来说,梯度只是为标量函数来定义的,例如机器学习中的损失函数;对于像softmax这样的向量函数,说是“梯度”是不准确的;雅可比是一个向量函数的全部的导数,大多数情况下我们会说“导数”。

由上面的例子知道如果 i = j , i=j, ,则 a i z j = a i ( 1 a j ) \frac{\partial a_i}{\partial z_j}=a_i(1-a_j) .

如果 i j i \neq j ,则

a i z j = e z i k = 1 n e z k z j = 0 e z i e z j Σ 2 = e z i Σ e z j Σ = a i a j \frac{\partial a_i}{\partial z_j}=\frac{\partial \frac{e^{z_i}}{\sum_{k=1}^n e^{z_k}}}{\partial z_j} =\frac{0-e^{z_i}e^{z_j}}{\Sigma^2}=-\frac{e^{z_i}}{\Sigma}\frac{e^{z_j}}{\Sigma}=-a_ia_j

综上所述:
a i z j = { a i ( 1 a j ) i = j a i a j i j \frac{\partial a_i}{\partial z_j}=\left\{\begin{array}{lr} a_i(1-a_j) & i=j \\ -a_ia_j & i\neq j \end{array}\right.

如果引入克罗内克函数 δ i j = { 1 i = j 0 i j \delta_{ij}=\left\{\begin{array}{lr}1& i=j \\ 0 & i \neq j\end{array}\right. ,则上式可以表示为:
a i z j = a i ( δ i j a j ) . \frac{\partial a_i}{\partial z_j}=a_i(\delta_{ij}-a_j).

在有的文献中,使用”1”作为函数名而不是克罗内克δ,则
a i z j = a i ( 1 ( i = j ) a j ) . \frac{\partial a_i}{\partial z_j}=a_i(1(i=j)-a_j).

最终,我们可以得到损失函数Loss对各参数 z 1 , z 2 ,   , z n z_1,z_2,\cdots,z_n 的偏导数.

首先, 根据复合函数求导法则:
L o s s z i = j = 1 n L o s s a j a j z i \frac{\partial Loss}{\partial z_i}=\sum\limits_{j=1}^n\frac{\partial Loss}{\partial a_j}\frac{\partial a_j}{\partial z_i}

L o s s a j = ( k y k ln a j ) a j = y j 1 a j . \frac{\partial Loss}{\partial a_j}=\frac{\partial (-\sum_k y_k \ln a_j)}{\partial a_j}=-y_j\frac{1}{a_j}.

又因为 a j z i = { a j ( 1 a i ) i = j a i a j i j \frac{\partial a_j}{\partial z_i}=\left\{\begin{array}{lr} a_j(1-a_i) & i=j \\ -a_ia_j & i\neq j \end{array}\right.
,我们把上面的组合起来得到,

L o s s z i = ( j = 1 n y j 1 a j ) a j z i = y i a i a i ( 1 a i ) + j i y j a j a i a j = y i + a i y i + j i a i y j = y i + a i j = 1 n y j = y i + a i \begin{array}{lcl} \frac{\partial Loss}{\partial z_i}&=&(-\sum\limits_{j=1}^n y_j\frac{1}{a_j})\frac{\partial a_j}{\partial z_i}\\ &=&-\frac{y_i}{a_i}a_i(1-a_i)+\sum\limits_{j\neq i}\frac{y_j}{a_j}a_ia_j\\ &=&-y_i+a_iy_i+\sum\limits_{j\neq i}a_iy_j\\ &=&-y_i+a_i\sum\limits_{j=1}^ny_j=-y_i+a_i \end{array}

最后的结果看起来简单了很多,最后,针对分类问题,我们给定的结果yi最终只会有一个类别是1,其他类别都是0,因此,对于分类问题,这个结果等于:

L o s s z i = a i y i = a i 1 , \frac{\partial Loss}{\partial z_i}=a_i-y_i=a_i-1,
即,我们算得的梯度就是神经元的输出-1.

发布了14 篇原创文章 · 获赞 24 · 访问量 2万+

猜你喜欢

转载自blog.csdn.net/xxuffei/article/details/90022008