参考自周志华《机器学习》的附录A
向量 $\vec{a}$ 对标量 $x$ 的导数以及 $x$ 对 $\vec{a}$ 的导数都是向量。其第 $i$ 个分量为:
类似的,矩阵 $\mathbf{A}$ 对标量 $x$ 的导数以及 $x$ 对 $\mathbf{A}$ 的导数都是矩阵,第 $i$ 行第 $j$ 列的元素为:
对于函数 $f(\vec{x})$ ,假设其对向量元素可导,则 $f(\vec{x})$ 关于 $\vec{x}$ 的一阶导数是一个向量,其第 $i$ 个分量为
$f(\vec{x})$ 关于 $\vec{x}$ 的二阶导数是一个矩阵,被称为海森矩阵(Hessian matrix),其第 $i$ 行第 $j$ 列上的元素为
向量和矩阵的导数满足乘法法则:
由 $\mathbf{A}\mathbf{A^{-1}}=\mathbf{I}$ 知:
所以逆矩阵的导数可以表示为
若求导的标量是矩阵 $\mathbf{A}$ 的元素,则有