博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
非常见降维方法:Laplacian Eigenmaps 拉普拉斯特征映射
阅读量:4287 次
发布时间:2019-05-27

本文共 939 字,大约阅读时间需要 3 分钟。

拉普拉斯矩阵

Laplacian matrix 的定义

谈到机器学习中的降维技术,可能大多数了解一点机器学习的朋友都知道PCA,今天为大家介绍一种新的降维方法——拉普拉斯特征映射

拉普拉斯矩阵(Laplacian matrix)),也称为基尔霍夫矩阵, 是表示图的一种矩阵。给定一个有n个顶点的图G=(V,E) ,其拉普拉斯矩阵被定义为:L=D-W

其中D为图的度矩阵,W为图的邻接矩阵。(不知道度矩阵和邻接矩阵的请自行百度)

拉普拉斯矩阵L的性质

  • L是对称半正定矩阵;
  • 1 = 0 1 ,即 的最小特征值是0,相应的特征向量是 。证明:L* 1 = ( D-W) * 1 = 0 = 0 * 1 。
  • L 有n个非负实特征值
  • 且对于任何一个属于实向量f ,有以下式子成立 : 
    这里写图片描述

证明如下: 
这里写图片描述

Laplacian Eigenmaps 拉普拉斯特征映射

Laplacian Eigenmaps 是用局部的角度去构建数据之间的关系。如果两个数据实例i和j很相似,那么i和j在降维后目标子空间中应该尽量接近。它的直观思想是希望相互间有关系的点(在图中相连的点)在降维后的空间中尽可能的靠近。Laplacian Eigenmaps可以反映出数据内在的流形结构。 
这里写图片描述

使用时算法具体步骤为:

步骤1:构建图

使用某一种方法来将所有的点构建成一个图,例如使用KNN算法,将每个点最近的K个点连上边。K是一个预先设定的值。这样构建的图矩阵就是一个稀疏矩阵,只保留了最相似的K个邻居关系。

步骤2:确定权重

确定点与点之间的权重大小,例如选用热核函数来确定(当然这个地方你完全可以选择其他的相似度度量方式来衡量),如果点i和点j相连,那么它们关系的权重设定为:

这里写图片描述

使用最小的m个非零特征值对应的特征向量作为降维后的结果输出。

前面提到过,Laplacian Eigenmap具有区分数据点的特性,可以从下面的例子看出: 
这里写图片描述

见图1所示,左边的图表示有两类数据点(数据是图片),中间图表示采用Laplacian Eigenmap降维后每个数据点在二维空间中的位置,右边的图表示采用PCA并取前两个主要方向投影后的结果,可以清楚地看到,在此分类问题上,Laplacian Eigenmap的结果明显优于PCA。

你可能感兴趣的文章
【清纯可爱女孩win7主题】
查看>>
【一步一步教会您升级到win7旗舰版】
查看>>
【给你一些使用win7系统的理由】
查看>>
【女人8大隐私部位越丑越健康】
查看>>
【娱乐八卦】林峯床照门旧爱潘霜霜变脸Angelababy
查看>>
【优生优育:女性避孕失败的6个征兆】
查看>>
【女人吃豆腐的好处】
查看>>
【冬季围巾暖搭的任意门】
查看>>
【网友DIY紫药水染发 草根奇葩美妆法大起底】
查看>>
【灰色逆袭秋冬土豪金退位】
查看>>
【新欢与旧爱 大牌明星代言法则】
查看>>
【李某某进入少管所服刑 满18周岁后移送成人监狱】
查看>>
【全球著名时尚达人代言珑骧2014春夏系列】
查看>>
【贝克汉姆夫妇携手登封面 拍摄圣诞节大片】
查看>>
【我们就爱穿上古着晒幸福】
查看>>
【赵薇与贝嫂希尔顿撞包】
查看>>
【王菲机场背3万LV包 气场压过代言人范爷】
查看>>
【可疑代码扫描器V0.12最新绿色版】
查看>>
【色空win7动漫美女诱惑主题】
查看>>
【美女送福利了win7主题】
查看>>