参考:https://zhuanlan.zhihu.com/p/24709748
这部分内容分两篇整理,上篇讲标量对矩阵的求导,下篇讲矩阵对矩阵的求导。
- 本文使用小写字母x表示标量,粗体小写字母
x表示(列)向量,大写字母X表示矩阵。
定义:标量f对矩阵X的导数,定义为
∂X∂f=[∂Xij∂f],即f对X逐元素求导排成与X尺寸相同的矩阵。然而,这个定义在计算中并不好用,实用上的原因是在对较复杂的函数难以逐元素求导;哲理上的原因是逐元素求导破坏了整体性。
试想,为何要将f看做矩阵X而不是各元素
Xij的函数呢?
答案是用矩阵运算更整洁。所以在求导时不宜拆开矩阵,而是要找一个从整体出发的算法。
为此,我们来回顾,一元微积分中的导数(标量对标量的导数)与微分有联系:
df=f′(x)dx;
多元微积分中的梯度(标量对向量的导数)也与微分有联系:
df=∑i=1n∂xi∂fdxi=∂x∂fTdx,这里第一个等号是全微分公式,第二个等号表达了梯度与微分的联系:全微分
df是n×1梯度向量
∂x∂f与
n×1微分向量
dx的内积;
受此启发,我们将矩阵导数与微分建立联系:
df=∑i=1m∑j=1n∂Xij∂fdXij=tr(∂X∂fTdX)。其中
tr代表迹(trace)是方阵对角线元素之和,满足性质:对尺寸相同的矩阵A,B,
tr(ATB)=∑i,jAijBij,即tr(ATB)是矩阵A,B的内积。与梯度相似,这里第一个等号是全微分公式,第二个等号表达了矩阵导数与微分的联系:全微分df是
m×n导数∂X∂f与m×n微分矩阵dX的内积。
然后来建立运算法则。回想遇到较复杂的一元函数如
f=log(2+sinx)ex
,我们是如何求导的呢?通常不是从定义开始求极限,而是先建立了初等函数求导和四则运算、复合等法则,再来运用这些法则。故而,我们来创立常用的矩阵微分的运算法则:
- 加减法:
d(X±Y)=dX±dY;
- 矩阵乘法:
d(XY)=(dX)Y+XdY ;
- 转置:
d(XT)=(dX)T;
- 迹:
dtr(X)=tr(dX)。
- 逆:
dX−1=−X−1dXX−1。此式可在
XX−1=I两侧求微分来证明。
- 行列式:
d∣X∣=tr(X#dX) ,其中
X#表示X的伴随矩阵,在X可逆时又可以写作
d∣X∣=∣X∣tr(X−1dX)。此式可用Laplace展开来证明,详见张贤达《矩阵分析与应用》第279页。
- 逐元素乘法:
d(X⊙Y)=dX⊙Y+X⊙dY,
⊙表示尺寸相同的矩阵X,Y逐元素相乘。
- 逐元素函数:
dσ(X)=σ′(X)⊙dX ,
σ(X)=[σ(Xij)]是逐元素标量函数运算,
σ′(X)=[σ′(Xij)]是逐元素求导数。举个例子,
X=[x1,x2],dsin(X)=[cosx1dx1,cosx2dx2]=cos(X)⊙dX。
我们试图利用矩阵导数与微分的联系
df=tr(∂X∂fTdX),在求出左侧的微分
df后,该如何写成右侧的形式并得到导数呢?这需要一些迹技巧(trace trick):
- 标量套上迹:
a=tr(a)
- 转置:
tr(AT)=tr(A)
- 线性:
tr(A±B)=tr(A)±tr(B)。
- 矩阵乘法交换:
tr(AB)=tr(BA),其中A与
BT尺寸相同。两侧都等于
∑i,jAijBji。
- 矩阵乘法/逐元素乘法交换:
tr(AT(B⊙C))=tr((A⊙B)TC),其中A, B, C尺寸相同。两侧都等于
∑i,jAijBijCij。
观察一下可以断言,若标量函数f是矩阵X经加减乘法、行列式、逆、逐元素函数等运算构成,则使用相应的运算法则对f求微分,再使用迹技巧给
df套上迹并将其它项交换至
dX左侧,即能得到导数。
在建立法则的最后,来谈一谈复合:假设已求得
∂Y∂f,而
Y是X的函数,如何求
∂X∂f呢?在微积分中有标量求导的链式法则
∂x∂f=∂y∂f∂x∂y,但这里我们不能沿用链式法则,因为矩阵对矩阵的导数
∂X∂Y截至目前仍是未定义的。于是我们继续追本溯源,链式法则是从何而来?源头仍然是微分。我们直接从微分入手建立复合法则:先写出
df=tr(∂Y∂fTdY),再将
dY用dX表示出来代入,并使用迹技巧将其他项交换至
dX左侧,即可得到
∂X∂f。
接下来演示一些算例。特别提醒要依据已经建立的运算法则来计算,不能随意套用微积分中标量导数的结论,比如认为AX对X的导数为A,这是没有根据、意义不明的。
-
例1:
f=aTXb,求
∂X∂f。其中
a是m×1列向量,X是
m×n矩阵,
b是n×1列向量,f是标量。
解:先使用矩阵乘法法则求微分,这里的
a,
b是常量,
da=0,db=0,得到:
df=aTdXb ,再套上迹并做矩阵乘法交换:
df=tr(aTdXb)=tr(baTdX),注意这里我们根据
tr(AB)=tr(BA)交换了aTdX与b。对照导数与微分的联系
df=tr(∂X∂fTdX),得到
∂X∂f=(baT)T=abT。
-
注意:这里不能用
∂X∂f=aT∂X∂Xb=?,导数与乘常数矩阵的交换是不合法则的运算(而微分是合法的)。有些资料在计算矩阵导数时,会略过求微分这一步,这是逻辑上解释不通的。
-
例2:
f=aTexp(Xb),求
∂X∂f。其中
a是m×1列向量,X是
m×n矩阵,
b是n×1列向量,exp表示逐元素求指数,
f是标量。
解:先使用矩阵乘法、逐元素函数法则求微分:
df=aT(exp(Xb)⊙(dXb)),再套上迹并做矩阵乘法/逐元素乘法交换、矩阵乘法交换:
df=tr(aT(exp(Xb)⊙(dXb)))=tr((a⊙exp(Xb))TdXb)=tr(b(a⊙exp(Xb))TdX),注意这里我们先根据
tr(AT(B⊙C))=tr((A⊙B)TC)交换了
a、exp(Xb)与dXb,再根据
tr(AB)=tr(BA)交换了
(a⊙exp(Xb))TdX与
b。对照导数与微分的联系
df=tr(∂X∂fTdX),得到
∂X∂f=(b(a⊙exp(Xb))T)T=(a⊙exp(Xb))bT。
-
例3.【线性回归】:
l=∥Xw−y∥2, 求
w的最小二乘估计,即求
∂w∂l的零点。其中
y是
m×1列向量,X是
m×n矩阵,
w是n×1列向量,
l是标量。
解:严格来说这是标量对向量的导数,不过可以把向量看做矩阵的特例。
先将向量模平方改写成向量与自身的内积:
l=(Xw−y)T(Xw−y),求微分,使用矩阵乘法、转置等法则:
dl=(Xdw)T(Xw−y)+(Xw−y)T(Xdw)=2(Xw−y)TXdw。
对照导数与微分的联系
dl=∂w∂lTdw,得到∂w∂l=(2(Xw−y)TX)T=2XT(Xw−y)。
∂w∂l的零点即w的最小二乘估计为w=(XTX)−1XTy。
-
例4.【方差的最大似然估计】:样本
x1,…,xn∼N(μ,Σ),求方差
Σ的最大似然估计。写成数学式是:
l=log∣Σ∣+n1∑i=1n(xi−xˉ)TΣ−1(xi−xˉ),求
∂Σ∂l的零点。其中
xi是m×1列向量,
x=n1∑i=1nxi是样本均值,
Σ是m×m对称正定矩阵,l是标量.
解:首先求微分,使用矩阵乘法、行列式、逆等运算法则,
第一项是
dlog∣Σ∣=∣Σ∣−1d∣Σ∣=tr(Σ−1dΣ),
第二项是
n1∑i=1n(xi−xˉ)TdΣ−1(xi−xˉ)=−n1∑i=1n(xi−xˉ)TΣ−1dΣΣ−1(xi−xˉ)。
再给第二项套上迹做交换:
tr(n1∑i=1n(xi−xˉ)TΣ−1dΣΣ−1(xi−xˉ))=n1∑i=1ntr((xi−xˉ)TΣ−1dΣΣ−1(xi−xˉ))=n1∑i=1ntr(Σ−1(xi−xˉ)(xi−xˉ)TΣ−1dΣ)=tr(Σ−1SΣ−1dΣ),
其中先交换迹与求和,然后将
Σ−1(xi−xˉ)交换到左边,最后再交换迹与求和,
并定义
S=n1∑i=1n(xi−xˉ)(xi−xˉ)T为样本方差矩阵。得到
dl=tr((Σ−1−Σ−1SΣ−1)dΣ)。
对照导数与微分的联系,有
∂Σ∂l=(Σ−1−Σ−1SΣ−1)T,其零点即
Σ的最大似然估计为
Σ=S。
-
例5【多元logistic回归】:
l=−yTlogsoftmax(Wx),求∂W∂l。其中
y是除一个元素为1外其它元素为0的m×1列向量,
W是m×n矩阵,
x是n×1列向量,
l是标量;
softmax(a) =
1Texp(a)exp(a),其中
exp(a)表示逐元素求指数,
1代表全1向量。
解:首先将softmax函数代入并写成
l=−yT(log(exp(Wx))−1log(1Texp(Wx))) =
−yTWx+log(1Texp(Wx)),这里要注意逐元素log满足等式
log(u/c)=log(u)−1log(c),以及
y满足yT1=1。
求微分,使用矩阵乘法、逐元素函数等法则:
dl=−yTdWx+1Texp(Wx)1T(exp(Wx)⊙(dWx))。再套上迹并做交换,注意可化简
1T(exp(Wx)⊙(dWx))=exp(Wx)TdWx,
这是根据等式
1T(u⊙v)=uTv,故
dl=tr(−yTdWx+1Texp(Wx)exp(Wx)TdWx)=tr(x(softmax(Wx)−y)TdW)。
对照导数与微分的联系,得到
∂W∂l=(softmax(Wx)−y)xT。
另解:定义
a=Wx,则
l=−yTlogsoftmax(a),先如上求出∂a∂l=softmax(a)−y ,
再利用复合法则:
dl=tr(∂a∂lTda)=tr(∂a∂lTdWx)=tr(x∂a∂lTdW),得到∂W∂l=∂a∂lxT。
-
最后一例留给经典的神经网络。神经网络的求导术是学术史上的重要成果,还有个专门的名字叫做BP算法, 我相信如今很多人在初次推导BP算法时也会颇费一番脑筋,事实上使用矩阵求导术来推导并不复杂。
为简化起见,我们推导二层神经网络的BP算法。
-
例6.【二层神经网络】:
l=−yTlogsoftmax(W2σ(W1x)),求∂W1∂l和∂W2∂l。其中
y是除一个元素为1外其它元素为0的的
m×1列向量,
W2是m×p矩阵,
W1是p×n矩阵,
x是n×1列向量,
l是标量;
softmax(a)=1Texp(a)exp(a),同例3,
σ(⋅)是逐元素
sigmoid函数σ(a)=1+exp(−a)1。
解:定义
a1=W1x,h1=σ(a1),a2=W2h1,则l=−yTlogsoftmax(a2)。
在前例中已求出
∂a2∂l=softmax(a2)−y 。使用复合法则,注意此处
h1,W2都是变量:
dl=tr(∂a2∂lTda2)=tr(∂a2∂lTdW2h1)+tr(∂a2∂lTW2dh1),
使用矩阵乘法交换的迹技巧从第一项得到
∂W2∂l=∂a2∂lh1T,从第二项得到
∂h1∂l=W2T∂a2∂l。
接下来求∂a1∂l,继续使用复合法则,并利用矩阵乘法和逐元素乘法交换的迹技巧:
tr(∂h1∂lTdh1)=tr(∂h1∂lT(σ′(a1)⊙da1))=tr((∂h1∂l⊙σ′(a1))Tda1),得到
∂a1∂l=∂h1∂l⊙σ′(a1).
为求∂W1∂l,再用一次复合法则:
tr(∂a1∂lTda1)=tr(∂a1∂lTdW1x)=tr(x∂a1∂lTdW1),得到∂W1∂l=∂a1∂lxT。