好文档 - 专业文书写作范文服务资料分享网站

降维算法

天下 分享 时间: 加入收藏 我要投稿 点赞

第五部分:降维方法

线性降维方法:PCA ICA LDA LFA LPP(LE的线性表示) 基于核函数的非线性降维方法:KPCA KICA KDA

基于特征值的非线性降维方法(流型学习):ISOMAPLLE LE LPP LTSA MVU

LLE(Locally Linear Embedding)算法(局部线性嵌入):每一个数据点都可以由其近邻点的线性加权组合构造得到。 算法的主要步骤分为三步:

(1)寻找每个样本点的k个近邻点(k是一个预先给定的值); (2)由每个样本点的近邻点计算出该样本点的局部重建权值矩阵;

(3)由该样本点的局部重建权值矩阵和其近邻点计算出该样本点的输出值,定义一个误差函数。

第 1 页 共 1 页

机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。

目前大部分降维算法处理向量表达的数据,也有一些降维算法处理高阶张量表达的数据。之所以使用降维后的数据表示是因为在原始的高维空间中,包含有冗余信息以及噪音信息,在实际应用例如图像识别中造成了误差,降低了准确率;而通过降维,我们希望减少冗余信息 所造成的误差,提高识别(或其他应用)的精度。又或者希望通过降维算法来寻找数据内部的本质结构特征。

在很多算法中,降维算法成为了数据预处理的一部分,如PCA。事实上,有一些算法如果没有降维预处理,其实是很难得到很好的效果的。

主成分分析算法(PCA)

Principal Component Analysis(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。

通俗的理解,如果把所有的点都映射到一起,那么几乎所有的信息(如点和点之间的距离关系)都丢失了,而如果映射后方差尽可能的大,那么数据点则会 分散开来,以此来保留更多的信息。可以证明,PCA是丢失原始数据信息最少的一

第 2 页 共 2 页

种线性降维方式。(实际上就是最接近原始数据,但是PCA并不试图去探索数 据内在结构)

设n维向量w为目标子空间的一个坐标轴方向(称为映射向量),最大化数据映

射后的方差,有:其中m是数据实例的个数, xi

是数据实例 i 的向量表达, x拔是所有数据实例的平均向量。定义W为包含所有映射向量为列向量的矩阵,经过线性代数变换,可以得到如下优化目标函数:

其中tr表示矩阵的迹, A是数据协方差矩阵。容

易得到最优的W是由数据协方差矩阵前 k 个最大的特征值对应的特征向量作为列向量构成的。这些特征向量形成一组正交基并且最好地保留了数据中的信息。PCA的输出就是Y = W‘X,由X的原始维度降低到了k维。PCA追求的是在降维之后能够最大化保持数据的内在信息,并通过衡量在投影方向上的数据方差的大小来衡量该方向的重要性。但是这样投影以后对数据 的区分作用并不大,反而可能使得数据点揉杂在一起无法区分。这也是PCA存在的最大一个问题,这导致使用PCA在很多情况下的分类效果并不好。具体可以看 下图所示,若使用PCA将数据点投影至一维空间上时,PCA会选择2轴,这使得原本很容易区分的两簇点被揉杂在一起变得无法区分;这时若选择1轴将会得到很好的区分结果。

第 3 页 共 3 页

Discriminant Analysis所追求的目标与PCA不同,不是希望保持数据最多的信息,而是希望数据在降维后能够很容易地被区分开来。后面会介绍LDA的方法,是另一 种常见的线性降维方法。另外一些非线性的降维方法利用数据点的局部性质,也可以做到比较好地区分结果,例如LLE,Laplacian Eigenmap等。以后会介绍。

线性判别算法LDA

Linear Discriminant Analysis(也有叫做Fisher Linear Discriminant)是一种有监督的(supervised)线性降维算法。与PCA保持数据信息不同,LDA是为了使得降维后的数据点尽可能地容易被区分!

假设原始数据表示为X,(m*n矩阵,m是维度,n是sample的数量) 既然是线性的,那么就是希望找到映射向量a, 使得 a‘X后的数据点能够保持以下两种性质:

1、同类的数据点尽可能的接近(within class) 2、不同类的数据点尽可能的分开(between class)

上次PCA用的这张图,如果图中两堆点是两类的话,那么我们就希望他们能够投影到轴1去(PCA结果为轴2),这样在一维空间中也是很容易区分的。

第 4 页 共 4 页

思路还是非常清楚的,目标函数就是最后一行J(a),μ(一飘)就是映射后的中心用来评估类间距,s(一瓢)就是映射后的点与中心的距离之和用来评估类内距。J(a)正好就是从上述两个性质演化出来的。 因此两类情况下:

加上a’a=1的条件(类似于PCA)

可以拓展成多类:

第 5 页 共 5 页

降维算法

第五部分:降维方法线性降维方法:PCAICALDALFALPP(LE的线性表示)基于核函数的非线性降维方法:KPCAKICAKDA基于特征值的非线性降维方法(流型学习):ISOMAPLLELELPPLTSAMVULLE(LocallyLinearEmbedding)算法(局部线性嵌入):每一个数据点都
推荐度:
点击下载文档文档为doc格式
931yr4j5511qw0b8cvba7dd7d92wae01aqc
领取福利

微信扫码领取福利

微信扫码分享