嘻嘻~今天也假装努力学习了鸭!总结一下前阵子学的线性代数的一小部分内容
首先,奇异值分解(Singular Value Decomposition)是线性代数中一种重要的矩阵分解。
区分和理解几个概念:
1.奇异值
对于一个实矩阵A(m×n阶),如果可以分解为A=UΣV’,其中U和Σ为分别为m×n与n×m阶正交阵,V为n×n阶对角阵,且Σ=diag(a1,a2,...,ar,0,..., 0)。且有a1=a2=a3=...=ar=0.那么a1,a2,...,ar称为矩阵A的奇异值。
(ps:正交矩阵:若一个方阵其行与列皆为正交的单位向量,则该矩阵为正交矩阵,且该矩阵的转置和其逆相等。两个向量正交的意思是两个向量的内积为 0)
2.矩阵分解
也就是把大而复杂的矩阵简化分解成较好处理的矩阵 (个人认为可以是一种降维的过程)这就意味着需要进行矩阵的变换,矩阵变换其实也可以理解为一种线性变换(旋转、缩放、投影)
3.特征值与特征分解(EVD)
特征值:
如果一个非零向量v是方阵A的特征向量,将可以表示成下面形式,其中λ是特征向量v对应的特征值
特征值和特征向量的求解举例
特征分解:
根据不同的矩阵类型,特征分解在我看啦可以说是对旋转缩放两种效应的一种归并
特征值分解可以将矩阵分解为下列的形式
4.奇异值分解(SVD)
特征值分解是一个提取矩阵特征很不错的方法,但是它目前只适用于方阵。
相比于前面提及的特征分解 奇异值分解可以说是三种效应合起来的一种析构
A=UΣV',其中U和V是两组正交单位向量,都是是对角阵,是表示奇异值,A矩阵的作用是将一个向量从V这组正交基向量的空间旋转U到这组正交基向量空间,并对每个方向进行了一定的缩放,缩放因子就是各个奇异值。如果V维度U比大,则表示还进行了投影。这样可以说奇异值分解将一个矩阵原本混合在一起的三种作用效果,展现出来了。
详细解答:
奇异值求解举例:
啊啊啊啊-终于不知所云地写完了
链接参考:机器学习(十五)SVD(特征值分解和奇异值分解的区别) - 黑洲非人 - CSDN博客
https://wenku.baidu.com/view/92ebb2e2cfc789eb162dc8b6.html