当前位置:   article > 正文

机器学习——特征值分解_aα=λα的α为什么不为零向量

aα=λα的α为什么不为零向量

特征值特征向量的定义

Aα = λα(α不等于0)
A是一个n阶矩阵
α是n维的非零向量
λ是一个常数
如果Aα = λα(α不等于0)那么λ称为A的特征值,α就是A的对于特征值λ的特征向量
如果n个特征向量线性无关那么就可以进行特征的分解

特征值分解

n个特征向量线性无关可以进行特征分解
A=WΣW-1
其中W是这n个特征向量所张成的n×n维矩阵,并对n个特征向量标准化,而Σ为这n个特征值为主对角线的n×n维矩阵。若A为实对称矩阵
A=WΣWT
同时W的n个特征向量为标准正交基,注意到要进行特征分解,矩阵A必须为方阵。

小测试+解析

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/271690
推荐阅读
相关标签
  

闽ICP备14008679号