采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
如题,我们可以用n_components查看前n个主成分,那如何查看这前n个主成分是什么呢?
主成分分析不是保留了某些维度,而是将原有的维度转换成了另外的维度。
如下图所示:对于二维数据,红色的箭头就是第一主成分。这个主成分既不是特征1,也不是特征2,而是特征1和特征2的综合。
所以,我们没有“保留”任何因子,我们实际算出了n个新的主成分(即新的特征,新的维度,新的方向),每个主成分的本质是一个方向。
每个主成分是谁?就是我们求出的W矩阵的每一列。
请简单理解一下上面的叙述,再复习一下这一章前面的内容。梯度上升法求解不是重点。关键是,我们到底在求什么?尤其在第一小节,我就已经用比较的方式向大家展示了,主成分分析不是这样的保留特征。
加油!:)
那实际情形往往希望能得到所有因素中的主要因素。当我们需要了解n_components中前n个主成分,怎么办呢?
如果你说的主要因素是指具有语义的因素的话,就不能使用 PCA 做压缩。这个课程介绍的 LASSO 是一种“特征选择”的方式,可以参考这里:http://coding.imooc.com/learn/questiondetail/129659.html
登录后可查看更多问答,登录/注册
Python3+sklearn,兼顾原理、算法底层实现和框架使用。
2.4k 19
3.4k 17
2.9k 15
1.6k 15
1.4k 14