线性代数是机器学习中不可分割的一部分,包括矩阵运算、矩阵行列式、矩阵分解等。
讨论线性方程和线性运算的学科就叫线性代数。
有助于理解AI背后的原理。
对应元素相加
只有行列相同才能相加
每个元素乘以常数
i行元素与j列元素对应相乘再相加形成第i行第j列元素
前一个矩阵的列数必须与后一个矩阵的行数相等
矩阵的本质就是对向量空间中向量的变换
二维旋转矩阵乘以二维向量相当于对二维向量进行旋转
二维伸缩矩阵乘以二维向量相当于对二维向量的x方向或y方向进行拉伸或压缩
矩阵的行列互换
(矩阵转置的更多内容可参见学习笔记|矩阵转置)
AE=A
除主对角线外的元素都是0
行列式本质上代表了一个数值
如果里面有未知数,它就是一个多项式
它可以看成面积或体积在欧几里德空间的推广
二阶行列式相当于平行四边形的面积
矩阵行列式的大小等于特征值的乘积
(行列式的更多内容可参见学习笔记|矩阵的行列式)
特征值分解是最常用的分解
若Ax=λx,则称λ是矩阵A的一个特征值,x是特征值λ的一个特征向量。
Ax=λx
⇒Ax-λx=0
⇒(A-λE)x=0
⇒|A-λE|=0
上式称为特征方程,求解可得特征值。
(矩阵特征值的更多内容可参见学习笔记|矩阵的特征值)
如果矩阵与向量相乘不发生旋转,只发生伸缩,则该向量就是特征向量,伸缩的比例就是特征值。
当A的特征值是,与之相对应的特征向量是时,
称为特征值分解,其中
P和代表了矩阵的旋转,而diag(λ)代表了矩阵的伸缩。
奇异值分解是更一般的分解,不仅适用于方正,还适用于非方正
奇异值分解将矩阵分解成三个矩阵
其中U、V都为正交矩阵,Σ为对角矩阵(不一定是方阵),里面的元素是奇异值,并从大到小排列。
U代表m空间的旋转
V代表n空间的旋转
Σ代表m空间到n空间的拉伸与映射
机器学习领域中很多应用与奇异值分解相关,比如主成分分析法、线性判别分析、数据压缩与潜在主义分析等。
1.https://blog.csdn.net/songbinxu/article/details/79677948
2.https://www.cnblogs.com/liuwu265/p/4714396.html