ImageVerifierCode 换一换
格式:PPT , 页数:100 ,大小:1.64MB ,
文档编号:5203655      下载积分:28 文币
快捷下载
登录下载
邮箱/手机:
温馨提示:
系统将以此处填写的邮箱或者手机号生成账号和密码,方便再次下载。 如填写123,账号和密码都是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

优惠套餐
 

温馨提示:若手机下载失败,请复制以下地址【https://www.163wenku.com/d-5203655.html】到电脑浏览器->登陆(账号密码均为手机号或邮箱;不要扫码登陆)->重新下载(不再收费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录  
下载须知

1: 试题类文档的标题没说有答案,则无答案;主观题也可能无答案。PPT的音视频可能无法播放。 请谨慎下单,一旦售出,概不退换。
2: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
3: 本文为用户(晟晟文业)主动上传,所有收益归该用户。163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

1,本文(CHAPTER10聚类分析基本概念和方法课件.ppt)为本站会员(晟晟文业)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!

CHAPTER10聚类分析基本概念和方法课件.ppt

1、Data Mining:Concepts and Techniques12015第第1010章章 聚类分析:基聚类分析:基本概念和方法本概念和方法Data Mining:Concepts and Techniques2第第10章:聚类分析:基本概念和方法章:聚类分析:基本概念和方法n聚类分析聚类分析n划分方法划分方法n层次方法层次方法n基于密度的方法基于密度的方法n基于网格的方法基于网格的方法n聚类评估聚类评估n小结小结Data Mining:Concepts and Techniques3什么是聚类分析什么是聚类分析?n聚类聚类:数据对象的集合数据对象的集合/簇簇(cluster)n同一簇中

2、的对象彼此相似同一簇中的对象彼此相似n不同簇中的对象彼此相异不同簇中的对象彼此相异n聚类分析聚类分析n将数据对象分组成为多个类或簇将数据对象分组成为多个类或簇n聚类是聚类是无监督的无监督的分类:没有预先定义的类分类:没有预先定义的类n典型应用典型应用n作为洞察数据内部分布的独一无二的工具作为洞察数据内部分布的独一无二的工具 n作为其它算法的预处理步骤作为其它算法的预处理步骤Data Mining:Concepts and Techniques4聚类的一般应用聚类的一般应用 n模式识别模式识别n空间数据分析空间数据分析 n聚类产生聚类产生GIS(地理信息系统地理信息系统)的专题地图的专题地图th

3、ematic maps n在空间数据挖掘中检测空间聚类并解释它们在空间数据挖掘中检测空间聚类并解释它们n图象处理图象处理n经济科学经济科学(特别是市场研究特别是市场研究)nWWWn文本分类文本分类nWeb日志数据聚类,发现类似访问模式群日志数据聚类,发现类似访问模式群Data Mining:Concepts and Techniques5聚类应用的例子聚类应用的例子n市场营销市场营销:帮助市场营销者发现他们的基本顾客的不同组群,然后利用这一知帮助市场营销者发现他们的基本顾客的不同组群,然后利用这一知识制定有针对性的营销计划识制定有针对性的营销计划n国土利用国土利用在地球观测数据库中识别类似的国

4、土使用区域在地球观测数据库中识别类似的国土使用区域n保险保险 对汽车保险持有者的分组对汽车保险持有者的分组 n城市规划城市规划根据房子的类型,价值,和地理位置对一个城市中房屋的分组根据房子的类型,价值,和地理位置对一个城市中房屋的分组 n地震研究地震研究应当将观测到的地震震中沿大陆板块断裂进行聚类应当将观测到的地震震中沿大陆板块断裂进行聚类Data Mining:Concepts and Techniques6聚类分析的主要步骤聚类分析的主要步骤n特征选择特征选择n选择与任务密切相关的信息n尽可能减少信息冗余n相似度评价相似度评价n两个特征向量的相似性n聚类的评价准则聚类的评价准则n通过代价函

5、数或某些规则n聚类算法聚类算法nk-均值、极大似然、n结果验证结果验证n验证聚类结果的有效性n结果解释结果解释n根据实际应用解释聚类结果6Data Mining:Concepts and Techniques7什么是好的聚类方法什么是好的聚类方法?n一个好的聚类方法应当产生高质量的聚类一个好的聚类方法应当产生高质量的聚类n类内相似性高类内相似性高n类间相似性低类间相似性低n聚类结果的质量依赖于方法所使用的相似性度量聚类结果的质量依赖于方法所使用的相似性度量和它的实现和它的实现.n聚类方法的质量也用它聚类方法的质量也用它发现发现某些或全部隐藏的模某些或全部隐藏的模式的能力来度量式的能力来度量Da

6、ta Mining:Concepts and Techniques8数据挖掘对聚类的要求数据挖掘对聚类的要求 n可伸缩性可伸缩性n有的算法当数据对象少于有的算法当数据对象少于200时处理很好时处理很好,但对大量数但对大量数据对象偏差较大据对象偏差较大n大型数据库包含数百万个对象大型数据库包含数百万个对象n处理不同属性类型的能力处理不同属性类型的能力n许多算法专门用于数值类型的数据许多算法专门用于数值类型的数据n实际应用涉及不同数据类型(实际应用涉及不同数据类型(数值和分类数据混合)数值和分类数据混合)n发现任意形状的聚类发现任意形状的聚类n基于距离的聚类趋向于发现具有相近尺度和密度的球基于距离

7、的聚类趋向于发现具有相近尺度和密度的球状簇状簇 n一个簇可能是任意形状的一个簇可能是任意形状的Data Mining:Concepts and Techniques9数据挖掘对聚类的要求数据挖掘对聚类的要求(续续)n用于决定输入参数的领域知识最小化用于决定输入参数的领域知识最小化n许多聚类算法要求用户输入一定的参数,许多聚类算法要求用户输入一定的参数,如希望产生的如希望产生的簇的数目。簇的数目。n参数难以确定,增加用户负担,使聚类质量难以控制参数难以确定,增加用户负担,使聚类质量难以控制n处理噪声数据和孤立点的能力处理噪声数据和孤立点的能力 n一些聚类算法对于噪音数据敏感一些聚类算法对于噪音数

8、据敏感,可能导致低质量的聚可能导致低质量的聚类结果类结果n现实世界中的数据库大都包含了孤立点现实世界中的数据库大都包含了孤立点,空缺空缺,或者错误或者错误的数据的数据 n对于输入记录的顺序不敏感对于输入记录的顺序不敏感 n一些聚类算法对于输入数据的顺序是敏感的一些聚类算法对于输入数据的顺序是敏感的,以不同的以不同的次序输入会导致不同的聚类次序输入会导致不同的聚类Data Mining:Concepts and Techniques10数据挖掘对聚类的要求数据挖掘对聚类的要求(续续)n高维性(高维性(high dimensionality)n许多聚类算法擅长处理低维的数据许多聚类算法擅长处理低维

9、的数据,可能只涉及两到三维可能只涉及两到三维 n数据库或者数据仓库可能包含若干维或者属性数据库或者数据仓库可能包含若干维或者属性,数据可能数据可能非常稀疏非常稀疏,而且高度偏斜而且高度偏斜 n整合用户指定的约束整合用户指定的约束n现实世界的应用可能需要在各种约束条件下进行聚类现实世界的应用可能需要在各种约束条件下进行聚类 n要找到既满足要找到既满足特定的约束特定的约束,又具有良好聚类特性的数据分又具有良好聚类特性的数据分组是一项具有挑战性的任务组是一项具有挑战性的任务 n可解释性和可用性可解释性和可用性 n用户希望聚类结果是可解释的用户希望聚类结果是可解释的,可理解的可理解的,和可用的和可用的

10、 n聚类可能需要和特定的语义解释和应用相联系聚类可能需要和特定的语义解释和应用相联系 Data Mining:Concepts and Techniques11聚类分析的方法聚类分析的方法n划分方法划分方法:nConstruct various partitions and then evaluate them by some criterion,e.g.,minimizing the sum of square errorsnTypical methods:k-means,k-medoids,CLARANSn层次方法层次方法:nCreate a hierarchical decomposit

11、ion of the set of data(or objects)using some criterionnTypical methods:Diana,Agnes,BIRCH,CAMELEONn基于密度的方法基于密度的方法:nBased on connectivity and density functionsnTypical methods:DBSACN,OPTICS,DenCluen基于网格的方法基于网格的方法:nbased on a multiple-level granularity structurenTypical methods:STING,WaveCluster,CLIQUE

12、11Data Mining:Concepts and Techniques12聚类分析的方法聚类分析的方法 n基于模型的方法基于模型的方法:nA model is hypothesized for each of the clusters and tries to find the best fit of that model to each othernTypical methods:EM,SOM,COBWEBn基于频繁模式的方法基于频繁模式的方法:nBased on the analysis of frequent patternsnTypical methods:p-Clustern基于

13、约束的方法基于约束的方法:nClustering by considering user-specified or application-specific constraintsnTypical methods:COD(obstacles),constrained clusteringn基于链接的方法基于链接的方法:nObjects are often linked together in various waysnMassive links can be used to cluster objects:SimRank,LinkClus12Data Mining:Concepts and T

14、echniques1313第第10章:聚类分析:基本概念和方法章:聚类分析:基本概念和方法n聚类分析聚类分析n划分方法划分方法n层次方法层次方法n基于密度的方法基于密度的方法n基于网格的方法基于网格的方法n聚类评估聚类评估n小结小结Data Mining:Concepts and Techniques14划分方法划分方法n划分方法划分方法:构造构造n个对象数据库个对象数据库D的划分的划分,将其划分成将其划分成k个聚类个聚类n给定给定 k,找找k 个个clusters 对于选定的划分标准它是最优的对于选定的划分标准它是最优的n全局最优全局最优(Global optimal):枚举所有的划分枚举所

15、有的划分n启发式方法启发式方法(Heuristic methods):k-平均平均(k-means)和和k-中中心点心点(k-medoids)算法算法nk-平均平均(MacQueen67):每个簇用簇的重心每个簇用簇的重心(簇的平均值簇的平均值)表示表示nk-中心点或中心点或PAM(Partition around medoids)(Kaufman&Rousseeuw87):每个簇用接近聚类中心的一个对象来表每个簇用接近聚类中心的一个对象来表示示 Data Mining:Concepts and Techniques15k-平均聚类算法平均聚类算法 n算法:算法:k-平均平均(1)任意选择任意

16、选择k个对象作为初始的簇中心;个对象作为初始的簇中心;(2)repeat(3)根据簇中对象的平均值根据簇中对象的平均值,将每个对象将每个对象(重新重新)赋给最类似的簇;赋给最类似的簇;(4)更新簇的平均值更新簇的平均值,即重新计算每个簇中对象的平均值;即重新计算每个簇中对象的平均值;(5)until 不再发生变化不再发生变化 n通常通常,采用平方误差准则作为收敛函数采用平方误差准则作为收敛函数,其定义如下其定义如下 其中其中,mi是簇是簇Ci的平均值的平均值该准则试图使生成的结果簇尽可能紧凑该准则试图使生成的结果簇尽可能紧凑,独立独立21|kiCpiimpEData Mining:Concep

17、ts and Techniques16k-平均聚类算法平均聚类算法(续续)n例例012345678910012345678910012345678910012345678910012345678910012345678910012345678910012345678910012345678910012345678910K=2任意选择任意选择 K个对象作个对象作为初始聚类中心为初始聚类中心将每个将每个对象赋对象赋给最相给最相似中心似中心更新簇更新簇平均值平均值重新赋值重新赋值更新簇更新簇平均值平均值重新赋值重新赋值Data Mining:Concepts and Techniques17k-平均

18、聚类算法平均聚类算法(续续)n优点优点:相对有效性相对有效性:O(tkn),其中其中,n是对象数目,是对象数目,k是簇数目,是簇数目,t 是迭代次数是迭代次数;通常:通常:k,t 1,2,3 8,9,10,25 1,2,3,8 9,10,25nk-中心点中心点(k-Medoids):不采用簇中对象的平均值作为参照不采用簇中对象的平均值作为参照点点,而是选用簇中而是选用簇中位置最中心的对象位置最中心的对象,即中心点即中心点(medoid)作作为参照点为参照点012345678910012345678910012345678910012345678910Data Mining:Concepts a

19、nd Techniques20k-中心点聚类方法中心点聚类方法(续续)n找聚类中的代表对象找聚类中的代表对象(中心点中心点)nPAM(Partitioning Around Medoids,1987)n首先为每个簇随意选择一个首先为每个簇随意选择一个代表对象代表对象,剩余的对象根据其剩余的对象根据其与代表对象的距离分配给最近的一个簇与代表对象的距离分配给最近的一个簇n反复地用非代表对象替代代表对象,以改进聚类的质量反复地用非代表对象替代代表对象,以改进聚类的质量 nPAM 对于较小的数据集非常有效对于较小的数据集非常有效,但不能很好地扩展到但不能很好地扩展到大型数据集大型数据集nCLARA(K

20、aufmann&Rousseeuw,1990)抽样抽样nCLARANS(Ng&Han,1994):随机选样随机选样Data Mining:Concepts and Techniques21n算法算法:k-中心点中心点(1)随机选择随机选择k个对象作为初始的代表对象;个对象作为初始的代表对象;(2)repeat(3)指派每个剩余的对象给离它最近的代表对象所代表的簇;指派每个剩余的对象给离它最近的代表对象所代表的簇;(4)随意地选择一个非代表对象随意地选择一个非代表对象Orandom;(5)计算用计算用Orandom代替代替Oj的总代价的总代价S;(6)若若S0,用用Orandom替换替换Oj,形

21、成新的形成新的k个代表对象的集合;个代表对象的集合;(7)until 不发生变化不发生变化k-中心点聚类方法中心点聚类方法(续续)O1O2O3。Oj。OkOrandomData Mining:Concepts and Techniques22Total Cost=20012345678910012345678910k=2任意任意选选择择 k 个个数数据据对对象作象作为为初始初始类类中心点中心点将将每每个个剩余的剩余的数数据据对对象安排象安排对对最近最近的的类类随随机机选择选择一一个个非非类类中中心心数数据据对对象象 Oramdom计计算交算交换换的代价的代价012345678910012345

22、678910Total Cost=26若聚若聚类质类质量上升,量上升,交交 换换 O 与与 Oramdom.执行循环直执行循环直至类不在发至类不在发生变化生变化012345678910012345678910k-中心点聚类方法中心点聚类方法(续续)Data Mining:Concepts and Techniques23k-中心点聚类方法中心点聚类方法(续续)n为了判定一个非代表对象为了判定一个非代表对象Orandom是否是当前一个代表对象是否是当前一个代表对象Oj的好的替代,对于每一个非代表对象,考虑下面四种情况:的好的替代,对于每一个非代表对象,考虑下面四种情况:n第一种情况:第一种情况:

23、p当前隶属于代表对象当前隶属于代表对象Oj.如果如果Oj被被Orandom所代替所代替,且且p离离Oi最近最近,ij,那么那么p被重新分配给被重新分配给Oi n第二种情况:第二种情况:p当前隶属于代表对象当前隶属于代表对象Oj.如果如果Oj 被被Orandom代替代替,且且p离离Orandom最近最近,那么那么p被重新分配给被重新分配给Orandom n第三种情况:第三种情况:p当前隶属于当前隶属于Oi,ij。如果如果Oj被被Orandom代替,而代替,而p仍然离仍然离Oi最近,那么对象的隶属不发生变化最近,那么对象的隶属不发生变化 n第四种情况:第四种情况:p当前隶属于当前隶属于Oi,ij。

24、如果如果Oj被被Orandom代替,且代替,且p离离Orandom最近,那么最近,那么p被重新分配给被重新分配给Orandom Data Mining:Concepts and Techniques24 1.重新分配给重新分配给Oi 2.重新分配给重新分配给Orandom 3.不发生变化不发生变化 4.重新分配给重新分配给Orandom 数据对象数据对象+簇中心簇中心 替代前替代前 替代后替代后k-中心点聚类代价函数的四种情况中心点聚类代价函数的四种情况+OrandomOiOjp+OrandomOiOjp+OrandomOiOjp+OrandomOiOjpk-中心点聚类方法中心点聚类方法(续续

25、)Data Mining:Concepts and Techniques25n当存在噪音和孤立点时,当存在噪音和孤立点时,PAM 比比 k-平均方法更健平均方法更健壮,其原因是中心点不象平均值那么容易被极端数壮,其原因是中心点不象平均值那么容易被极端数据影响据影响 nPAM对于小数据集工作得很好,但不能很好地用于对于小数据集工作得很好,但不能很好地用于大数据集大数据集 n每次迭代每次迭代O(k(n-k)2)k-平均平均:O(tkn)其中其中,n 是数据对象数目,是数据对象数目,k 是聚类数是聚类数基于抽样的方法:基于抽样的方法:CLARA(Clustering LARge Applicatio

26、ns)k-中心点聚类方法中心点聚类方法(续续)Data Mining:Concepts and Techniques2626第第10章:聚类分析:基本概念和方法章:聚类分析:基本概念和方法n聚类分析聚类分析n划分方法划分方法n层次方法层次方法n基于密度的方法基于密度的方法n基于网格的方法基于网格的方法n聚类评估聚类评估n小结小结Data Mining:Concepts and Techniques27层次方法层次方法n层次的聚类方法将数据对象组成一棵聚类的树层次的聚类方法将数据对象组成一棵聚类的树n根据层次分解是自底向上根据层次分解是自底向上,还是自顶向下形成还是自顶向下形成,层次层次的聚类方

27、法可以进一步分为的聚类方法可以进一步分为凝聚的凝聚的(agglomerative)和和分裂的分裂的(divisive)层次聚类层次聚类 n使用距离矩阵作为聚类标准使用距离矩阵作为聚类标准.该方法不需要输入聚该方法不需要输入聚类数目类数目 k,但需要终止条件但需要终止条件Data Mining:Concepts and Techniques28n凝聚的凝聚的(agglomerative)和分裂的和分裂的(divisive)层次聚类图示层次聚类图示Step 0Step 1Step 2Step 3Step 4bdceaa bd ec d ea b c d eStep 4Step 3Step 2Ste

28、p 1Step 0agglomerative(AGNES)divisive(DIANA)层次方法(续)层次方法(续)Data Mining:Concepts and Techniques29AGNES(Agglomerative Nesting)n由由 Kaufmann和和Rousseeuw提出提出(1990)n已在一些统计分析软件包中实现已在一些统计分析软件包中实现.如如 Splusn使用单链接使用单链接(Single-Link)方法和相异度矩阵方法和相异度矩阵 n合并具有最小相异度的节点合并具有最小相异度的节点n以非递减的方式继续以非递减的方式继续n最终所有的节点属于同一个簇最终所有的节点

29、属于同一个簇Data Mining:Concepts and Techniques30DIANA(Divisive Analysis)n由由 Kaufmann和和Rousseeuw提出提出(1990)n已在一些统计分析软件包中实现已在一些统计分析软件包中实现.如如 Splusn是是 AGNES的逆的逆n最终每个节点自己形成一个簇最终每个节点自己形成一个簇Data Mining:Concepts and Techniques31层次方法层次方法(续续)n四个广泛采用的簇间距离度量方法四个广泛采用的簇间距离度量方法 n最小距离:最小距离:dmin(Ci,Cj)=min pCi,pCj|p-p|n最

30、大距离:最大距离:dmax(Ci,Cj)=max pCi,pCj|p-p|n平均值的距离:平均值的距离:dmean(Ci,Cj)=|mi-mj|n平均距离:平均距离:davg(Ci,Cj)=pCi pCj|p-p|/ni nj其中:其中:|p-p|是两个对象是两个对象p和和p之间的距离;之间的距离;mi是簇是簇Ci 的平的平均值,均值,ni是簇是簇Ci中对象的数目中对象的数目 Data Mining:Concepts and Techniques32层次方法层次方法(续续)n层次聚类的主要缺点层次聚类的主要缺点n不具有很好的可伸缩性不具有很好的可伸缩性:时间复杂性至少是时间复杂性至少是 O(n

31、2),其其中中 n 对象总数对象总数n合并或分裂的决定需要检查和估算大量的对象或簇合并或分裂的决定需要检查和估算大量的对象或簇 n不能撤消已做的处理不能撤消已做的处理,聚类之间不能交换对象聚类之间不能交换对象.如果如果某一步没有很好地选择合并或分裂的决定某一步没有很好地选择合并或分裂的决定,可能会导可能会导致低质量的聚类结果致低质量的聚类结果 Data Mining:Concepts and Techniques33n改进层次方法的聚类质量的方法改进层次方法的聚类质量的方法:将层次聚类和其将层次聚类和其他的聚类技术进行集成,形成多阶段聚类他的聚类技术进行集成,形成多阶段聚类 nBIRCH(19

32、96):使用使用 CF-tree对对象进行层次划分对对象进行层次划分,然后然后采用其他的聚类算法对聚类结果进行求精采用其他的聚类算法对聚类结果进行求精 nROCK1999:基于簇间的互联性进行合并:基于簇间的互联性进行合并nCHAMELEON(1999):使用动态模型进行层次聚类使用动态模型进行层次聚类nCURE(1998):采用固定数目的代表对象表示每个簇,:采用固定数目的代表对象表示每个簇,依据一个指定的收缩因子向着聚类中心对它们进行收缩依据一个指定的收缩因子向着聚类中心对它们进行收缩层次方法层次方法(续续)Data Mining:Concepts and Techniques34BIRC

33、H(1996)nBirch(Balanced Iterative Reducing and Clustering using Hierarchies):利用层次方法的平利用层次方法的平衡迭代归约和聚类衡迭代归约和聚类n两个重要概念两个重要概念n聚类特征聚类特征(Clustering Feature,CF)n聚类特征树聚类特征树(Clustering Feature Tree,CF树树)n聚类特征聚类特征n聚类特征聚类特征(CF)是一个三元组,是一个三元组,给出给出对象子类的信息对象子类的信息的的汇总汇总描述描述 n设某个子类中有设某个子类中有N个个d维的点或对象维的点或对象oI,则该子类的则该

34、子类的CF定义如下定义如下 CF=(N,LS,SS)Data Mining:Concepts and Techniques35聚类特征聚类特征Clustering Feature:CF=(N,LS,SS)N:数据点数目数据点数目LS:Ni=1XiSS:Ni=1Xi2CF=(5,(16,30),(54,190)(3,4)(2,6)(4,5)(4,7)(3,8)可加性(类合并):可加性(类合并):CF=CF1+CF2=(N1+N2,LS1+LS2,SS1+SS1)Data Mining:Concepts and Techniques36BIRCH的的CF树树n聚类特征聚类特征 n从统计学的观点来看

35、,聚类特征是子聚类的从统计学的观点来看,聚类特征是子聚类的0阶阶,1阶和阶和 2阶矩阶矩(moments)n记录了计算聚类和有效利用存储的关键度量记录了计算聚类和有效利用存储的关键度量,并有效地并有效地利用了存储,因为它汇总了关于子类的信息,而利用了存储,因为它汇总了关于子类的信息,而不是不是存存储所有的对象储所有的对象 Data Mining:Concepts and Techniques37CF 树是高度平衡的树,它存储了层次聚类的树是高度平衡的树,它存储了层次聚类的聚类特征聚类特征 n树中的非叶节点有后代或树中的非叶节点有后代或“孩子孩子”n非叶节点存储了其孩子的非叶节点存储了其孩子的C

36、F的总和,即汇总了关于其的总和,即汇总了关于其孩子的聚类信息孩子的聚类信息 nCF树有两个参数树有两个参数影响影响CF树的大小树的大小n分支因子分支因子B:定义非树叶节点的孩子的最大个数定义非树叶节点的孩子的最大个数n阈值阈值T:定定义义存储在树的叶子节点中的子类的最大直径存储在树的叶子节点中的子类的最大直径 BIRCH的的CF树树Data Mining:Concepts and Techniques38CF1child1CF3child3CF2child2CF6child6CF1child1CF3child3CF2child2CF5child5CF1CF2CF6prevnextCF1CF2C

37、F4prevnextB=7T=6RootNon-leaf nodeLeaf nodeLeaf nodeCF树树Data Mining:Concepts and Techniques39BIRCH(续续)nBIRCH增量地构造一棵增量地构造一棵 CF 树树(Clustering Feature Tree),CF树是一个层次数据结构,用于多阶段聚类树是一个层次数据结构,用于多阶段聚类n阶段阶段 1:扫描扫描 DB,建立一棵初始的存放在内存的,建立一棵初始的存放在内存的 CF树(树(数据的多层压缩,试图保留数据内在的聚类结构)数据的多层压缩,试图保留数据内在的聚类结构)n阶段阶段 2:使用某种聚类算

38、法对使用某种聚类算法对CF树的叶节点进行聚类树的叶节点进行聚类 Data Mining:Concepts and Techniques40BIRCH(续续)n在阶段一:随着对象被插入,在阶段一:随着对象被插入,CF树被动态地构造树被动态地构造n一个对象被插入到最近的叶子条目(子聚类)一个对象被插入到最近的叶子条目(子聚类)n如果在插入后存储在叶子节点中的子类的如果在插入后存储在叶子节点中的子类的直径大于阀值直径大于阀值,那么该叶子节点(可能还有其他节点)被分裂那么该叶子节点(可能还有其他节点)被分裂n新对象插入后,关于该对象的信息向着树根传递新对象插入后,关于该对象的信息向着树根传递n通过修改

39、阀值,通过修改阀值,CF树的大小可以改变树的大小可以改变 n树重建:从旧树的叶子节点建造一个新树,重建树的过树重建:从旧树的叶子节点建造一个新树,重建树的过程不需要重读所有的对象程不需要重读所有的对象建树只需读一次数据建树只需读一次数据 n阶段二:采用任何聚类算法对叶节点进行聚类,例阶段二:采用任何聚类算法对叶节点进行聚类,例如典型的划分方法如典型的划分方法Data Mining:Concepts and Techniques41BIRCH(续续)nBIRCH的性能的性能n支持增量聚类支持增量聚类n线性可伸缩性线性可伸缩性:计算复杂性计算复杂性O(n),单遍扫描单遍扫描,附加的扫描附加的扫描可

40、以改善聚类质量可以改善聚类质量n较好的聚类质量较好的聚类质量n缺点缺点n只能处理数值数据只能处理数值数据n对数据的输入次序敏感对数据的输入次序敏感nCf树结点不总是对应于树结点不总是对应于用户考虑的用户考虑的自然簇自然簇(参数参数B和和T)n簇非球形时效果不好簇非球形时效果不好(使用半径使用半径/直径控制簇边界直径控制簇边界)Data Mining:Concepts and Techniques42CHAMELEONnCHAMELEON:一个利用动态模型的层次聚类算法一个利用动态模型的层次聚类算法(Hierarchical clustering using dynamic modeling)由

41、由G.Karypis,E.H.Han,and V.Kumar99 提出提出nCHAMELEON基于动态模型度量相似性基于动态模型度量相似性n如果两个簇间的互连性和近似度与簇内部对象间的互如果两个簇间的互连性和近似度与簇内部对象间的互连性和近似度高度相关连性和近似度高度相关,则合并这两个簇则合并这两个簇 n两阶段算法两阶段算法n使用图划分算法使用图划分算法:将数据对象聚为大量相对较小的子类将数据对象聚为大量相对较小的子类n使用凝聚的层次聚类算法:通过反复地合并子类来找使用凝聚的层次聚类算法:通过反复地合并子类来找到真正的结果簇到真正的结果簇Data Mining:Concepts and Tec

42、hniques43n既考虑互连性既考虑互连性,又考虑簇间的近似度又考虑簇间的近似度,特别是簇内部的特征特别是簇内部的特征,来确定最相似的子类来确定最相似的子类.n这样这样,它不依赖于静态的用户提供的模型它不依赖于静态的用户提供的模型,能够自动地适应能够自动地适应被合并的簇的内部特征被合并的簇的内部特征 n割边最小化割边最小化簇簇C划分为两个子簇划分为两个子簇Ci和和Cj时需要割断的时需要割断的边的加权和最小。边的加权和最小。n割边用割边用ECCi,Cj表示,评估表示,评估Ci和和Cj的簇间的的簇间的绝对互联性绝对互联性。CHAMELEON(续)(续)Data Mining:Concepts a

43、nd Techniques44构造稀疏图构造稀疏图划分图划分图合并划分合并划分最终的簇最终的簇Data SetK-最近邻居图最近邻居图CHAMELEON(续)(续)Data Mining:Concepts and Techniques45nk-最近邻图最近邻图Gk:图中的每个点代表一个数据对象图中的每个点代表一个数据对象,如果一个如果一个对象是另一个对象的对象是另一个对象的k个最类似的对象之一个最类似的对象之一,在这两个点之在这两个点之间存在一条边间存在一条边nk-最近邻图最近邻图Gk动态地捕捉邻域的概念:一个对象的邻域半动态地捕捉邻域的概念:一个对象的邻域半径由对象所在区域的密度所决定径由对

44、象所在区域的密度所决定n在一个密集区域在一个密集区域,邻域的定义范围相对狭窄邻域的定义范围相对狭窄;在一个稀疏在一个稀疏区域区域,它的定义范围相对较宽它的定义范围相对较宽 n区域的密度作为边的权重被记录下来区域的密度作为边的权重被记录下来n一个密集区域的边趋向于比稀疏区域的边有更大的权重一个密集区域的边趋向于比稀疏区域的边有更大的权重 CHAMELEON(续)(续)Data Mining:Concepts and Techniques46nChameleon通过两个簇的相对通过两个簇的相对互连性互连性RI(Ci,Cj)和相对和相对接近度接近度RC(Ci,Cj)来决定簇间的相似度来决定簇间的相似

45、度 nRI(Ci,Cj)定义为定义为Ci和和Cj之间的绝对互联性关于两个簇的之间的绝对互联性关于两个簇的内部互连性的规范化内部互连性的规范化 其中其中,ECCi,Cj是包含是包含Ci和和Cj的簇分裂为的簇分裂为Ci和和Cj的割边的割边,ECCi(或或ECCj)是它的最小截断等分线的大小(即将图划分为是它的最小截断等分线的大小(即将图划分为两个大致相等的部分需要切断的边的加权和)两个大致相等的部分需要切断的边的加权和)|)|(|21|),(,jijiCCCCjiECECECCCRICHAMELEON(续)(续)Data Mining:Concepts and Techniques47nRC(Ci

46、,Cj)定义为定义为Ci和和Cj之间的绝对接近度关于两个簇的内之间的绝对接近度关于两个簇的内部接近度的规范化部接近度的规范化 其中其中,是是连接连接Ci和和Cj顶点的边的平均权重顶点的边的平均权重 是是Ci的最小二等分的边的平均权重的最小二等分的边的平均权重 jCiCjCiCECjijECjiiECjiSCCCSCCCSCCRC|),(,),(jiCCECSiCECSCHAMELEON(续)(续)Data Mining:Concepts and Techniques4848CHAMELEON(续)(续)Data Mining:Concepts and Techniques49概率层次聚类概率层

47、次聚类n算法的层次聚类方法缺点算法的层次聚类方法缺点n为层次聚类选择一种好的距离量度常常是困难的为层次聚类选择一种好的距离量度常常是困难的 n为了使用算法的方法,数据对象不能有缺失的属性值为了使用算法的方法,数据对象不能有缺失的属性值n大部分算法的层次聚类方法都是启发式的,因此结果聚大部分算法的层次聚类方法都是启发式的,因此结果聚类层次结构的优化目标不清晰类层次结构的优化目标不清晰n概率层次聚类概率层次聚类n利用概率模型表征聚类之间的距离利用概率模型表征聚类之间的距离49Data Mining:Concepts and Techniques50生成模型生成模型n给定给定1维数据点集维数据点集X

48、=x1,xn,假设其服从高斯分布,假设其服从高斯分布n那么那么xi X被该模型生成的概率是:被该模型生成的概率是:nX被该模型生成的似然为:被该模型生成的似然为:n学习生成模型的任务是:找出使得似然最大的学习生成模型的任务是:找出使得似然最大的和和250Data Mining:Concepts and Techniques51概率层次聚类算法概率层次聚类算法n若一个对象集和被分成若一个对象集和被分成m个聚类个聚类C1,.,Cm,那么其聚类质量那么其聚类质量可用下式度量可用下式度量其中其中P()是针对某一类的最大似然是针对某一类的最大似然n若合并其中的两类若合并其中的两类Cj1和和Cj2成为成为

49、Cj1Cj2,那么其聚类质量变那么其聚类质量变化为化为n定义定义C1和和C2两类之间的距离两类之间的距离51Data Mining:Concepts and Techniques5252第第10章:聚类分析:基本概念和方法章:聚类分析:基本概念和方法n聚类分析聚类分析n划分方法划分方法n层次方法层次方法n基于密度的方法基于密度的方法n基于网格的方法基于网格的方法n聚类评估聚类评估n小结小结Data Mining:Concepts and Techniques53基于密度的方法基于密度的方法n基于密度聚类基于密度聚类(Density-Based Clustering)n主要特点主要特点:n发现任

50、意形状的聚类发现任意形状的聚类n处理噪音处理噪音n一遍扫描一遍扫描n需要密度参数作为终止条件需要密度参数作为终止条件n一些有趣的研究一些有趣的研究:nDBSCAN:Ester,et al.(KDD96)nOPTICS:Ankerst,et al(SIGMOD99).nDENCLUE:Hinneburg&D.Keim (KDD98)nCLIQUE:Agrawal,et al.(SIGMOD98)Data Mining:Concepts and Techniques54密度概念密度概念n-邻域:给定对象半径邻域:给定对象半径 内的领域内的领域n核心对象(核心对象(core object):一个对象

侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|