资源描述:
《聚类分析中的距离度量.ppt》由会员上传分享,免费在线阅读,更多相关内容在PPT专区-天天文库。
1、聚类分析中的距离度量在做分类时常常需要估算不同样本之间的相似性度量(SimilarityMeasurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否。本次报告的目的就是对常用的相似性度量作一个总结。目录1.欧氏距离2.曼哈顿距离3.切比雪夫距离4.明可夫斯基距离5.标准化欧氏距离6.马氏距离7.夹角余弦8.汉明距离9.杰卡德系数&杰卡德相似距离10.相关系数&相关距离11.信息熵欧氏距离(EuclideanDistance)欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距
2、离公式。(1)二维平面上两点a(xi,yi)与b(xj,yj)间的欧氏距离:(2)三维空间两点a(xi,yi,zi)与b(xj,yj,zj)间的欧氏距离:欧氏距离(续)两个n维向量a(xi1,xi2,…,xin)与b(xj1,xj2,…,xjn)间的欧氏距离:也可以用表示成向量运算的形式:Matlab计算欧氏距离Matlab计算距离主要使用pdist函数。若X是一个M×N的矩阵,则pdist(X)将X矩阵M行的每一行作为一个N维向量,然后计算这M个向量两两间的距离。例子:计算向量(0,0)、(1,0)、(0,2)两两间的欧式距离X=[00;10;02]D=pdist(X,'
3、euclidean')结果:D=1.00002.00002.2361曼哈顿距离(ManhattanDistance)想象你在曼哈顿要从一个十字路口开车到另外一个十字路口,驾驶距离是两点间的直线距离吗?显然不是,除非你能穿越大楼。实际驾驶距离就是这个“曼哈顿距离”。而这也是曼哈顿距离名称的来源,曼哈顿距离也称为城市街区距离(CityBlockdistance)。(1)二维平面两点a(xi,yi)与b(xj,yj)间的曼哈顿距离两个n维向量a(xi1,xi2,…,xin)与b(xj1,xj2,…,xjn)间的曼哈顿距离Matlab计算曼哈顿距离例子:计算向量(0,0)、(1,0
4、)、(0,2)两两间的曼哈顿距离X=[00;10;02]D=pdist(X,'cityblock')结果:D=123切比雪夫距离(ChebyshevDistance)国际象棋中国王走一步能够移动到相邻的8个方格中的任意一个。那么国王从格子a(xi,yi)走到格子b(xj,yj)最少需要多少步?自己走走试试。你会发现最少步数总是max(
5、xj-xi
6、,
7、yj-yi
8、)步。有一种类似的一种距离度量方法叫切比雪夫距离。(1)二维平面两点a(x1,y1)与b(x2,y2)间的切比雪夫距离切比雪夫距离(续)(2)两个n维向量a(xi1,xi2,…,xin)与b(xj1,xj2,…,x
9、jn)之间的切比雪夫距离这个公式的另一种等价形式是可以用放缩法和夹逼法则来证明此式Matlab计算切比雪夫距离例子:计算向量(0,0)、(1,0)、(0,2)两两间的切比雪夫距离X=[00;10;02]D=pdist(X,'chebychev')结果:D=122明可夫斯基距离(MinkowskiDistance)明氏距离不是一种距离,而是一组距离的定义。(1)明氏距离的定义两个n维变量a(xi1,xi2,…,xin)与b(xj1,xj2,…,xjn)之间的明可夫斯基距离定义为:其中p是一个变参数。当p=1时,就是曼哈顿距离当p=2时,就是欧氏距离当p→∞时,就是切比雪夫距离
10、根据变参数的不同,明氏距离可以表示一类的距离。(2)明氏距离的缺点明氏距离,包括曼哈顿距离、欧氏距离和切比雪夫距离都存在明显的缺点。举个例子:二维样本(身高,体重),其中身高范围是150~190,体重范围是50~60,有三个样本:a(180,50),b(190,50),c(180,60)。那么a与b之间的明氏距离(无论是曼哈顿距离、欧氏距离或切比雪夫距离)等于a与c之间的明氏距离,但是身高的10cm真的等价于体重的10kg么?因此用明氏距离来衡量这些样本间的相似度很有问题。简单说来,明氏距离的缺点主要有两个:(1)将各个分量的量纲(scale),也就是“单位”当作相同的看待
11、了。(2)没有考虑各个分量的分布(期望,方差等)可能是不同的。Matlab计算明氏距离例子:计算向量(0,0)、(1,0)、(0,2)两两间的明氏距离(以变参数为2的欧氏距离为例)X=[00;10;02]D=pdist(X,'minkowski',2)结果:D=1.00002.00002.2361标准化欧氏距离(StandardizedEuclideandistance)标准化欧氏距离是针对简单欧氏距离的缺点而作的一种改进方案。标准欧氏距离的思路:既然数据各维分量的分布不一样,那就先将各个分量都“标准化”到均值、