矩阵与向量与导数

参考自周志华《机器学习》的附录A

向量 $\vec{a}$ 对标量 $x$ 的导数以及 $x$ 对 $\vec{a}$ 的导数都是向量。其第 $i$ 个分量为:

类似的,矩阵 $\mathbf{A}$ 对标量 $x$ 的导数以及 $x$ 对 $\mathbf{A}$ 的导数都是矩阵,第 $i$ 行第 $j$ 列的元素为:

对于函数 $f(\vec{x})$ ,假设其对向量元素可导,则 $f(\vec{x})$ 关于 $\vec{x}$ 的一阶导数是一个向量,其第 $i$ 个分量为

$f(\vec{x})$ 关于 $\vec{x}$ 的二阶导数是一个矩阵,被称为海森矩阵(Hessian matrix),其第 $i$ 行第 $j$ 列上的元素为

向量和矩阵的导数满足乘法法则:

由 $\mathbf{A}\mathbf{A^{-1}}=\mathbf{I}$ 知:

所以逆矩阵的导数可以表示为

若求导的标量是矩阵 $\mathbf{A}$ 的元素,则有