打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
主成分分析(PCA)和奇异值分解(SVD)
特征抽取的目标是根据原始的d个特征的组合形成k个新的特征,即将数据从d维空间映射到k维空间。在文本分析领域常用的降维方法是主成分分析(PrincipalComponent Analysis, PCA)和奇异值分解(Singular ValueDecomposition, SVD)。
在下文的叙述中,将沿袭机器学习的常用符号,使用x表示一个列向量,它是样本x在d维空间中的点。而由n个样本构成的数据集可以表示为一个d×n的矩阵X
  • PCA
PCA背后的数学基础是特征值分析,即Σvvv是特征向量,λ是特征值。PCA的目标是最大化数据间累积方差。

PCA的一般过程是:
去除平均值:means;
计算X的协方差矩阵Σ
计算Σ的特征向量和特征值(特征向量用列向量v_d×1表示);
将特征值从大到小排序;
保留最上面的k个特征向量(这k个特征向量保证了数据映射到特征值最大的特征向量的方向时,数据间的累积方差最大,数据映射到第二大的特征向量时,数据间的累积方差次之,且特征向量之间保持正交)构成的特征向量矩阵V_d×k;
将数据转换到上述k个特征向量构建的新空间中(V^T*X=A_k×n +means,A是一个k×n的矩阵)。

  • SVD
SVD将原始的数据集X分解成三个矩阵U,ΣV^T:
X_d×n=U_d×dΣ_d×nV^T_n×n
其中是对角矩阵,对角元素成为奇异值,这些奇异值是矩阵X*X^T特征值的平方根。将奇异值从大到小排序后,若设定新空间的维度为k(kV^T_k×n和U_d×k

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
【推荐系统】特征值分解(谱分解)和奇异值分解(SVD),即在PCA上的应用
Stanford机器学习-数据降维
降维算法原理篇:主成分分析PCA、奇异值分解SVD、因子分析法FA、独立成分分析ICA等原理详推
通俗易懂的讲解奇异值分解(SVD)和主成分分析(PCA)
【机器学习】这次终于彻底理解了奇异值分解(SVD)原理及应用
SVD与PCA
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服