【机器学习基础】PCA主成份分析算法

   日期:2020-08-08     浏览:130    评论:0    
核心提示:特征提取和特征选择(Feature Extraction and selection)特征提取:主成分分析 PCA:principal component analysis 1947特征选择:自适应提升算法 AdaBoost 1995特征提取问题描述:特征选择问题描述:对于特征提取问题,nn其实也是个提取问题,这里的PCA就类似于一个单层的有M个神经元的神经网络正在上传…重新上传取消正在上传…重新上传取消是一个向量,P是样本的个数。A是M*N的矩阵可以看做是M个行向量,X是一

特征提取和特征选择(Feature Extraction and selection)

特征提取:主成分分析 PCA:principal component analysis 1947

特征选择:自适应提升算法 AdaBoost 1995

所需数学知识:协方差 线性代数 矩阵求导

特征提取问题描述:

特征选择问题描述:

对于特征提取问题,nn其实也是个提取问题,这里的PCA就类似于一个单层的有M

个神经元的神经网络。

 

主成分分析的流程:寻找使方差最大的方向 并在该方向投影


这里ai是一个向量,P是样本的个数。

A是M*N的矩阵可以看做是M个行向量,

X是一个样本维度是N维。

是一个向量,P是样本的个数。

问题转化如下:

 

为什么最大化的问题转化成:这里减去均值的意思就是相当于找一个坐标系,在该坐标系下首先找一个向量ai,所有样本在新的坐标系下有了新的坐标,ai和所有样本的内积即为在新的坐标下的投影,然后求和求最大方差。

但是

也即

整理一下,原问题转化如下:是一个求条件极值问题,拉格朗日数乘法。

这里涉及到矩阵求导。

此时的a1就是我们求的第一个向量,二维已经可以降到一维。

 

对于高维情况,继续要求特征值和特征向量,找其他的方向投影最大。

这个方向要求和a1正交。

 

问题转化为如下:

面证明bata等于0

同样的道理可以求A矩阵其他向量。

 

PCA算法总结如下:计算样本得到的协方差计算特征值 和 特征向量,并排序。

样本本来是N * P 转化成了 M * P的矩阵。

对于样本的特征值也可以用SVD快速求出。

图片来自于浙江大学胡浩基教授上课的板书。侵权删。

 

 
打赏
 本文转载自:网络 
所有权利归属于原作者,如文章来源标示错误或侵犯了您的权利请联系微信13520258486
更多>最近资讯中心
更多>最新资讯中心
0相关评论

推荐图文
推荐资讯中心
点击排行
最新信息
新手指南
采购商服务
供应商服务
交易安全
关注我们
手机网站:
新浪微博:
微信关注:

13520258486

周一至周五 9:00-18:00
(其他时间联系在线客服)

24小时在线客服