2024线性算法与主成分分析算法

上传人:周哈****孩子 文档编号:595158763 上传时间:2024-10-23 格式:DOCX 页数:22 大小:743.02KB
返回 下载 相关 举报
2024线性算法与主成分分析算法_第1页
第1页 / 共22页
2024线性算法与主成分分析算法_第2页
第2页 / 共22页
2024线性算法与主成分分析算法_第3页
第3页 / 共22页
2024线性算法与主成分分析算法_第4页
第4页 / 共22页
亲,该文档总共22页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《2024线性算法与主成分分析算法》由会员分享,可在线阅读,更多相关《2024线性算法与主成分分析算法(22页珍藏版)》请在金锄头文库上搜索。

1、LDA与PCA算法线性判别分析(LDA)Linear Discriminant Analysis用途:数据预处理中的降维,分类任务历史:Ronald A. Fisher在1936年提出了线性判别方法目标:LDA关心的是能够最大化类间区分度的坐标轴成分将特征空间(数据集中的多维样本)投影到一个维度更小的 k 维子空间中,同时保持区分类别的信息线性判别分析(LDA)Linear Discriminant Analysis原理:投影到维度更低的空间中,使得投影后的点,会形成按类别区分,一簇一簇的情况,相同类别的点,将会在投影后的空间中更接近方法线性判别分析(LDA)Linear Discrimina

2、nt Analysis监督性:LDA是“有监督”的,它计算的是另一类特定的方向投影:找到更合适分类的空间与PCA不同,更关心分类而不是方差线性判别分析(LDA)数学原理原始数据:变换数据:目标:找到该投影 线性判别分析(LDA)Linear Discriminant AnalysisLDA分类的一个目标是使得不同类别之间的距离越远越好,同一类别之中的距离越近越好每类样例的均值:投影后的均值:投影后的两类样本中心点尽量分离:线性判别分析(LDA)Linear Discriminant Analysis只最大化J(w)就可以了?X1的方向可以最大化J(w),但是却分的不好散列值:样本点的密集程度,

3、值越大,越分散,反之,越集中同类之间应该越密集些:线性判别分析(LDA)Linear Discriminant Analysis目标函数:散列值公式展开散列矩阵(scatter matrices): 类内散布矩阵 Sw = S1+S2: 线性判别分析(LDA)Linear Discriminant Analysis目标函数: 分子展开:𝑆𝐵称作类间散布矩阵最终目标函数:线性判别分析(LDA)Linear Discriminant Analysis分母进行归一化:如果分子、分母是都可以取任意值的,那就会使得有无穷解,我们将分母限制为长度为1拉格朗日乘子法:两边都乘

4、以Sw的逆:(w就是矩阵 的特征向量了)主成分分析(PCA)Principal Component Analysis用途:降维中最常用的一种手段目标:提取最有价值的信息(基于方差)问题:降维后的数据的意义?主成分分析(PCA)向量的表示及基变换内积: :解释设向量B的模为1,则A与B的内积值等于A向B所在直线投影的矢量长度主成分分析(PCA)向量的表示及基变换向量可以表示为(3,2)实际上表示线性组合:基:(1,0)和(0,1)叫做二维空间中的一组基主成分分析(PCA)基变换基是正交的(即内积为0,或直观说相互垂直)要求:线性无关主成分分析(PCA)基变换变换:数据与一个基做内积运算,结果作为

5、第一个新的坐标分量,然后与第二个基做内积运算,结果作为第二个新坐标的分量数据(3,2)映射到基中坐标:主成分分析(PCA)基变换两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去主成分分析(PCA)协方差矩阵 方向:如何选择这个方向(或者说基)才能尽量保留最多的原始信息呢?一种直观的看法是:希望投影后的投影值尽可能分散方差:寻找一个一维基,使得所有数据变换为这个基上的坐标表示后,方差值最大协方差(假设均值为0时):主成分分析(PCA)协方差 如果单纯只选择方差最大的方向,后续方向应该会和方差最大的方向接近重合。 解决方案:为了让两个字段尽可能表示更多

6、的原始信息,我们是不希望它们之间存在(线性)相关性的协方差:可以用两个字段的协方差表示其相关性当协方差为0时,表示两个字段完全独立。为了让协方差为0,选择第二个基时只能在与第一个基正交的方向上选择。因此最终选择的两个方向一定是正交的。主成分分析(PCA)优化目标 将一组N维向量降为K维(K大于0,小于N),目标是选择K个单位正交基,使原始数据变换到这组基上后,各字段两两间协方差为0,字段的方差则尽可能大协方差矩阵:矩阵对角线上的两个元素分别是两个字段的方差,而其它元素是a和b的协方差。主成分分析(PCA)优化目标 协方差矩阵对角化:即除对角线外的其它元素化为0,并且在对角线上将元素按大小从上到下排列协方差矩阵对角化: 主成分分析(PCA)优化目标 实对称矩阵:一个n行n列的实对称矩阵一定可以找到n个单位正交特征向量实对称阵可进行对角化:根据特征值的从大到小,将特征向量从上到下排列,则用前K行组成的矩阵乘以原始数据矩阵X,就得到了我们需要的降维后的数据矩阵Y主成分分析(PCA)PCA实例 数据:协方差矩阵:特征值:特征向量:对角化: 降维:

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > IT计算机/网络 > 计算机应用/办公自动化

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号