矩阵与向量与导数

参考自周志华《机器学习》的附录A

向量 a 对标量 x 的导数以及 xa 的导数都是向量。其第 i 个分量为:

(ax)i=aix(xa)i=xai

类似的,矩阵 A 对标量 x 的导数以及 xA 的导数都是矩阵,第 i 行第 j 列的元素为:

(Ax)i,j=Ai,jx(xA)i,j=xAi,j

对于函数 f(x) ,假设其对向量元素可导,则 f(x) 关于 x 的一阶导数是一个向量,其第 i 个分量为

(f(x))i=f(x)xi

f(x) 关于 x 的二阶导数是一个矩阵,被称为海森矩阵(Hessian matrix),其第 i 行第 j 列上的元素为

(2f(x))i,j=2f(x)xixj

向量和矩阵的导数满足乘法法则:

xTax=aTxx=aABx=AxB+ABx

AA1=I 知:

AA1x=OAA1x+AxA1=OAA1x=AxA1A1x=A1AxA1

所以逆矩阵的导数可以表示为

A1x=A1AxA1

若求导的标量是矩阵 A 的元素,则有

tr(AB)Ai,j=Bj,itr(AB)A=BTtr(ATB)A=Btr(A)A=Itr(ABAT)A=A(B+BT)