1、第二章 聚类分析分类与聚类的区别l分类:用已知类别的样本训练集来设计分类器(监督学习)l聚类(集群):用事先不知类别的样本,而利用样本的先验知识来构造分类器(无监督学习)2.1聚类分析的概念基本思想:对一批没有标明类别及类数的模式样本集,根据模式间的相似程度,按照物以类聚、人以群分的思想,将相似的模式分为一类,不相似的分为另一类。特征的类型1.低层特征:低层特征:无序尺度:有明确的数量和数值。无序尺度:有明确的数量和数值。有序尺度:有先后、好坏的次序关系,如酒有序尺度:有先后、好坏的次序关系,如酒 分为上,中,下三个等级。分为上,中,下三个等级。名义尺度:无数量、无次序关系,如有红,名义尺度:
2、无数量、无次序关系,如有红,黄两种颜色黄两种颜色 2.中层特征:经过计算,变换得到的特征中层特征:经过计算,变换得到的特征 3.高层特征:在中层特征的基础上有目的的经过运高层特征:在中层特征的基础上有目的的经过运 算形成算形成例如:椅子的重量例如:椅子的重量=体积体积*比重比重 体积与长,宽,高有关;比重与材料,纹理,颜体积与长,宽,高有关;比重与材料,纹理,颜色有关。这里低、中、高三层特征都有了。色有关。这里低、中、高三层特征都有了。方法的有效性特征选取不当特征过少特征过多量纲问题主要聚类分析技术谱系法(系统聚类,层次聚类法)基于目标函数的聚类法(动态聚类)图论聚类法模糊聚类分析法2.2模式
3、相似度度量各种距离表示相似性:绝对值距离 已知两个样本 xi=(xi1,xi2,xi3,xin)T xj=(xj1,xj2,xj3,xjn)T nkjkikijXXd1|欧几里德距离明考夫斯基距离 其中当q=1时为绝对值距离,当q=2时为欧氏距离nkjkikijXXd12nkjkikqijXXqqd1|1)(切比雪夫距离 q趋向无穷大时明氏距离的极限情况 马哈拉诺比斯距离 其中xi,xj为特征向量,为协方差。使用的条件是 样 本符合正态分布|max)(1jkiknkijXXd1()Tijijijd MXXXX 夹角余弦 为xi xj的均值 即样本间夹角小的为一类,具有相似性例:x1,x2,x3
4、的夹角如图:因为x1,x2 的夹角小,所以x1,x2 最相似。nkjknkiknkjkikijXXXXC12121x1x1x2x2x3 相关系数 为xi xj的均值注意:在求相关系数之前,要将数据标准化12211nkikjkikjknnkikjkikjkkXXXXrijXXXX2.3类的定义和与类间距离用距离进行定义类(书)非监督学习方法分类1、基于概率密度函数估计的直接方法(不实用)2、基于样本间相似性度量的间接聚类方法两类间的距离l1、最短距离:两类中相距最近的两样本间的距离。ijxxpqdDqjpi min 2、最长距离 :两类中相距最远的两个样本间的距离。3、中间距离:最短距离和最长距
5、离都有片面性,因此有时用中间距离。设1类和23类间的最短距离为d12,最长距离为d13,23类的长度为d23,则中间距离为:上式推广为一般情况:ijxxpqdDqjpi max2231321220412121dddd12312d0d23d13d04121212231321220为参数,其中dddd 4、重心距离:均值间的距离 5、类平均距离:两类中各个元素两两之间的距离平方相加后取平均值 qjpipqxxijqpdNND221之间的距离类点与类点为样本数样本数其中jidNNqpijqqpp:,:6、离差平方和:l设N个样品原分q类,则定义第i类的离差平方和为:l离差平方和增量:设样本已分成p,
6、q两类,若把p,q合为r类,则定义离差平方:.,)()(1类的样本数为第的均值为样品其中iNxxxxxxSiijiiijTiNjijqii2(),pqrpqpqpqrrDSSSSSS其中分别为类与类的离差平方和为类的离差平方和增量愈小,合并愈合理。聚类准则类内距离越小越好类间距离越大越好一些准则函数MinJwMaxJBMaxSSTrJBw11聚类分析三要素相似性测度聚类准则聚类算法2.4 聚类的算法(1)根据相似性阈值和最小距离原则的简单聚类法(2)按照最小距离原则不断进行两类合并的方法(3)依据准则函数的动态动态聚类算法系统聚类的算法 谱系聚类的算法 原理、步骤 例:如下图所示 1、设全部样
7、本分为6类,2、作距离矩阵D(0)3G1G2G5G4G6Gx12345293116449166452543646642581193、求最小元素:4、把1,3合并7=(1,3)l4,6合并8=(4,6)5、作距离矩阵D(1)16431 dd7282984916525446、若合并的类数没有达到要求,转3。否则停止。3、求最小元素:4、8,5,2合并,9=(2,5,4,6)45852 dd枝状图15234678910 分解聚类分解聚类:把全部样本作为一类,然后根据相似性、相邻性分解。目标函数 两类均值方差 )()(212121xxxxTNNNEN:总样本数,:1类样本数 :2类样本数,两类均值:,
8、21xx1N2Nv分解聚类框图:初始分类调整分类方案最终结果目标函数达到最优先?NY对分算法:略 例:已知21个样本,每个样本取二个特征,原始资料矩阵如下表:样本号 1234 5678910 x10022 445667x26553 43121011 12 13 14 15 16 17 18 19 2021-4-2-3-3-5100-1-1-3322021-1-2-1-3-5目标函数0)()(212121xxxxNNNET)333.1714.0()0(1x)00()0(2x0,21)0(2)0(1NN解:第一次分类时计算所有样本,分别划到时的E值,找出最大的。1、开始时,G2),.,(2121)
9、0(1xxxG空G)0(2 2、分别计算当 划入G2 时的E值把 划入G2时有2121,.,xxx1x40.23)610.1(75.021120)60(),10.175.0()121()60()333.1714.0()333.1714.0(122)1(2)0(11)0(1)0(1)1(1ENxxxxx 然后再把 划入 时对应的E值,找出一个最大的E值。把 划为 的E值最大。2132,.,xxxG2G2x21),.,(2021)1(1xxxG)(21)1(2xG),65.19.0(1x1,20),53()1(2)1(12NNxE(1)=56.6再继续进行第二,第三次迭代计算出 E(2),E(3)
10、,次数 E值 1 56.6 2 79.16 3 90.90 4 102.61 5 120.11 6 137.15 7 154.10 8 176.15 9 195.26 10 213.07 11 212.01G2G1x21x20 x18x14x15x19x11x13x12x17x16 第10次迭代 划入 时,E最大。于是分成以下两类:G2x17),.,(1610211xxxxG),(212019181715,141312112xxxxxxxxxxG 每次分类后要重新计算 的值。可用以下递推公式:21,xx)1/()()1/()()(2)(2)(2)1(2)(1)(1)(1)1(1kikkkkik
11、kkNxxxxNxxxx为二类样品数时的两类均值划到从是下一次对分时把步对分时两类均值是第)(2)(1)(2)(1)1(2)1(1)(2)(1,kkkkikkkkNNGGxxxkxx10 x2x3x4x15x11x12x13x14x16x17x18x19x7x8x9x20 x21x6x1x5x6543211234561X2X432156654321 动态聚类兼顾系统聚类和分解聚类一、动态聚类的方法概要 先选定某种距离作为样本间的相似性的度量;确定评价聚类结果的准则函数;给出某种初始分类,用迭代法找出使准则函数取极值的最好的聚类结果。选代表点初始分类分类合理否最终分类修改分类YN动态聚类框图 二
12、、代表点的选取方法:代表点就是初始分类的聚类中心数k 凭经验选代表点,根据问题的性质、数据分布,从直观上看来较合理的代表点k;将全部样本随机分成k类,计算每类重心,把这些重心作为每类的代表点;按密度大小选代表点:以每个样本作为球心,以d为半径做球形;落在球内的样本数称为该点的密度,并按密度大小排序。首先选密度最大的作为第一个代表点,即第一个聚类中心。再考虑第二大密度点,若第二大密度点距第一代表点的距离大于d1(人为规定的正数)则把第二大密度点作为第二代表点,否则不能作为代表点,这样按密度大小考察下去,所选代表点间的距离都大于d1。d1太小,代表点太多,d1太大,代表点太小,一般选d12d。对代
13、表点内的密度一般要求大于T。T0为规定的一个正数。用前k个样本点作为代表点。三、初始分类和调整 选一批代表点后,代表点就是聚类中心,计算其它样本到聚类中心的距离,把所有样本归于最近的聚类中心点,形成初始分类,再重新计算各聚类中心,称为成批处理法。选一批代表点后,依次计算其它样本的归类,当计算完第一个样本时,把它归于最近的一类,形成新的分类。再计算新的聚类中心,再计算第二个样本到新的聚类中心的距离,对第二个样本归类。即每个样本的归类都改变一次聚类中心。此法称为逐个处理法。直接用样本进行初始分类,先规定距离d,把第一个样品作为第一类的聚类中心,考察第二个样本,若第二个样本距第一个聚类中心距离小于d
14、,就把第二个样本归于第一类,否则第二个样本就成为第二类的聚类中心,再考虑其它样本,根据样本到聚类中心距离大于还是小于d,决定分裂还是合并。最佳初始分类。如图所示,随着初始分类k的增大,准则函数下降很快,经过拐点A后,下降速度减慢。拐点A就是最佳初始分类。准则函数JK最佳初始分类A拐点03217654下降快下降慢四、C平均算法 例:已知有20个样本,每个样本有2个特征,数据分布如下图第一步:令C=2,选初始聚类中心为TTxZxZ)0,1()1(;)0,0()1(2211样本序号x1x2x3x4x5x6x7x8x9x10特征x10101212367特征x20011122266x11x12x13x1
15、4x15x16x17x18x19x20867897898967777888991543126654321X101099887702X1x2x3x4x5x6x7x8x9x10 x11x12x13x14x15x16x17x18x19x20 x10001)1()1()1()1(10100)1(00000)1(121121112111)(所以因为)()(第二步:ZxZxZxZxZxZx18,2),.,()1(),()1()1(.)1(,1)1(2)1()1(,2)1(1)1()1(,)1()1(0)01()01()1(2120542131122065206524241413231322221222NN
16、xxxxGxxGZxxxxxxZxZxZxZxZxZxZxZxZxZx二、一、因此分为两类:都属于、离计算出来,判断与第二个聚类中心的距、同样把所有同理所以因为第三步:根据新分成的两类建立新的聚类中心TGxxxXNZ)5.0,0()10(21)10()00(21)(211)2(31)1(111TGxxxxxXNZ)33.5,67.5().(1811)2(20542)1(222 第四步:转第二步。第二步:重新计算 到z1(2),z2(2)的距离,把它们归为最近聚类中心,重新分为两类,)(2,1),1()2(新旧聚类中心不等JZZJJ2021,.,xxx第三步,更新聚类中心TGxxxxxXNZ)1
17、3.1,25.1().(811)3(8321)2(111TGxxxxXNZ)33.7,67.7().(1211)3(20109)2(2228),.,()2(18211NxxxG12),.,()2(2201092NxxxG第四步,第二步,第三步,更新聚类中心转第二步因,2,1),2()3(jZZjj12,8),.,()4(),.,()4(,.,)3(),3(,.,2120109282112021212021NNxxxGxxxGxxxZZxxx重新分为二类心,归于最近的那个聚类中分别把的距离,到重新计算计算结束。TTZZZZ)33.7,67.7()3()4()13.1,25.1()3()4(2211迭代自组织数据分析算法(ISOData)方法步骤(1)任选初始值(中心),C个(2)将N个样本分到C类中(3)计算距离:(4)要求对中心分裂,合并新的中心(5)判断。上机作业已知50个样本(随机产生),每个样本2个特征(取值在010),数据如下:用c平均算法和ISODATA算法分类,编程上机,并画出分类图。样本序号1 2 3 4 5 6 7 8 9 10 x10 1 2 4 5 5 6 1 1 1 x20 1 1 3 3 4 5 4 5 6
侵权处理QQ:3464097650--上传资料QQ:3464097650
【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。