函数对向量的求导

我们一般对函数求导,是对单变量求导,但是在机器学习中,会遇到多元函数对向量求导的情况,比如:
f ( w ) = 1 2 w 2 f(\vec{w})=\frac{1}{2}||\vec{w}||^2 其中, w = ( w 1 , w 2 , , w n ) \vec{w}=(w_1,w_2,\cdots,w_n)

我们会看到在数学公式推导中会遇到函数对向量的求导:

f ( w ) w = 1 2 ( w 1 2 + w 2 2 + + w n 2 ) w \frac{\partial f(\vec{w})}{\partial \vec{w}} = \frac{\frac{1}{2}(w^2_1+w^2_2+\cdots+w^2_n)}{\partial \vec{w}} = 1 2 ( w 1 2 + w 2 2 + + w n 2 ) ( w 1 , w 2 , , w n ) = \frac{\frac{1}{2}(w^2_1+w^2_2+\cdots+w^2_n)}{\partial (w_1,w_2,\cdots,w_n)} = ( f ( w ) w 1 , f ( w ) w 2 , , f ( w ) w n ) =(\frac{\partial{f(\vec{w})}}{\partial{w_1}},\frac{\partial{f(\vec{w})}}{\partial{w_2}},\cdots,\frac{\partial{f(\vec{w})}}{\partial{w_n}}) = ( w 1 , w 2 , , w n ) = w =(w_1,w_2,\cdots,w_n)=\vec{w}

所以我们可以看出,一个函数对于一个向量求导,得到一个向量,这个向量的每一维,相当于是这个函数对原始向量的每一维上的变量进行求导,本质上就是求了 f ( w ) f(\vec{w}) 关于 w \vec{w} 的梯度 f ( w ) \nabla{f(\vec{w})}

发布了275 篇原创文章 · 获赞 40 · 访问量 3万+

猜你喜欢

转载自blog.csdn.net/weixin_41855010/article/details/105584812