转载自视觉SLAM中的数学
矩阵就是一个给定的线性变换,特征向量描述了这个线性变换的主要方向,特征值描述了特征向量的长度在该线性变换下缩放的比例。
为什么要进行矩阵分解
- 矩阵分解可以减少存储空间,减少问题处理的计算量,从而高效地解决目标问题。
- 矩阵分解可以提高算法的数值稳定性。
矩阵与矩阵分解的几何意义
在矩阵分解中,我们常常期望将矩阵分解为正交矩阵、对角矩阵及上/下三角矩阵的乘积。
以三维矩阵为例,一个普通矩阵的几何意义是对坐标进行某种线性变换,而正交矩阵的几何意义是坐标的旋转,对角矩阵的几何意义是坐标的缩放,三角矩阵的几何意义是对坐标的切边。
因此,对矩阵分解的几何意义就是将这种变换分解为缩放、切边和旋转的过程。
常用的矩阵分解
LU三角分解
LDLT分解
LLT分解
QR分解
SVD分解
特征值分解
(坑待填。。。)
参考资料
【1】视觉SLAM中的数学
【2】 机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用
【3】正定矩阵的Cholesky分解