1、第14章 聚类分析与判别分析介绍:介绍: 1、聚类分析、聚类分析 2、判别分析、判别分析 分类学是人类认识世界的基础科学。聚类分析分类学是人类认识世界的基础科学。聚类分析和判别分析是研究事物分类的基本方法,广泛地应和判别分析是研究事物分类的基本方法,广泛地应用于自然科学、社会科学、工农业生产的各个领域。用于自然科学、社会科学、工农业生产的各个领域。14.1.1 聚类分析根据事物本身的特性研究个体分类的方法,原根据事物本身的特性研究个体分类的方法,原则是同一类中的个体有较大的相似性,不同类则是同一类中的个体有较大的相似性,不同类中的个体差异很大。中的个体差异很大。根据分类对象的不同,分为样品(观
2、测量)聚根据分类对象的不同,分为样品(观测量)聚类和变量聚类两种:类和变量聚类两种:n样品聚类:对观测量样品聚类:对观测量(Case)进行聚类(不同的目的进行聚类(不同的目的选用不同的指标作为分类的依据,如选拔运动员与选用不同的指标作为分类的依据,如选拔运动员与分课外活动小组)分课外活动小组)n变量聚类:找出彼此独立且有代表性的自变量,而变量聚类:找出彼此独立且有代表性的自变量,而又不丢失大部分信息。在生产活动中不乏有变量聚又不丢失大部分信息。在生产活动中不乏有变量聚类的实例,如:衣服号码(身长、胸围、裤长、腰类的实例,如:衣服号码(身长、胸围、裤长、腰围)、鞋的号码。变量聚类使批量生产成为可
3、能。围)、鞋的号码。变量聚类使批量生产成为可能。14.1.2 判别分析判别分析是根据表明事物特点的变量值和它们判别分析是根据表明事物特点的变量值和它们所属的类,求出判别函数。根据判别函数对未所属的类,求出判别函数。根据判别函数对未知所属类别的事物进行分类的一种分析方法。知所属类别的事物进行分类的一种分析方法。在自然科学和社会科学的各个领域经常遇到需在自然科学和社会科学的各个领域经常遇到需要对某个个体属于哪一类进行判断。如动物学要对某个个体属于哪一类进行判断。如动物学家对动物如何分类的研究和某个动物属于哪一家对动物如何分类的研究和某个动物属于哪一类、目、纲的判断。类、目、纲的判断。不同:判别分析
4、和聚类分析不同的在于判别分不同:判别分析和聚类分析不同的在于判别分析要求已知一系列反映事物特征的数值变量的析要求已知一系列反映事物特征的数值变量的值,并且已知各个体的分类(值,并且已知各个体的分类(训练样本训练样本)。)。14.1.3 聚类分析与判别分析的SPSS过程在在AnalyzeClassify下:下:1.K-Means Cluster: 观测量快速聚类分观测量快速聚类分析过程析过程2.Hierarchical Cluster:分层聚类(进行分层聚类(进行观测量聚类和变量聚类的过程观测量聚类和变量聚类的过程3.Discriminant:进行判别分析的过程:进行判别分析的过程14.2 快速
5、样本聚类过程(Quick Cluster)使用使用 k 均值分类法对观测量进行聚类均值分类法对观测量进行聚类可使用系统的默认选项或自己设置选项,如分为几类、可使用系统的默认选项或自己设置选项,如分为几类、指定初始类中心、是否将聚类结果或中间数据数据存指定初始类中心、是否将聚类结果或中间数据数据存入数据文件等。入数据文件等。快速聚类实例快速聚类实例(P342,data14-01a):使用系统的默认使用系统的默认值进行:对运动员的分类(分为值进行:对运动员的分类(分为4类)类)nAnalyzeClassifyK-Means ClusterwVariables: x1,x2,x3wLabel Cas
6、e By: nowNumber of Cluster: 4w比较有用的结果:聚类结果形成的最后四类中心点比较有用的结果:聚类结果形成的最后四类中心点(Final Cluster Centers) 和每类的观测量数目(和每类的观测量数目(Number of Cases in each Cluster)w但不知每个运动员究竟属于哪一类?这就要用到但不知每个运动员究竟属于哪一类?这就要用到Save选项选项14.2 快速样本聚类过程(Quick Cluster)中的选项使用快速聚类的选择项:使用快速聚类的选择项:w类中心数据的输入与输出:类中心数据的输入与输出:Centers选项选项w输出数据选择项:
7、输出数据选择项:Save选项选项w聚类方法选择项:聚类方法选择项:Method选项选项w聚类何时停止聚类何时停止选择项:选择项:Iterate选项选项w输出统计量选择项:输出统计量选择项:Option选项选项14.2 指定初始类中心的聚类方法例题P343数据同上(数据同上(data14-01a):以四个四类成绩突出者的数据为初始):以四个四类成绩突出者的数据为初始聚类中心聚类中心(种子种子)进行聚类。类中心数据文件进行聚类。类中心数据文件data14-01b(但缺一(但缺一列列Cluster_,不能直接使用,要修改),不能直接使用,要修改)。对运动员的分类(还是分。对运动员的分类(还是分为为4
8、类)类)AnalyzeClassifyK-Means ClusternVariables: x1,x2,x3nLabel Case By: nonNumber of Cluster: 4nCenter: Read initial from: data14-01bnSave: Cluster membership和和Distance from Cluster Centern比较有用的结果(可将结果与前面没有初始类中心比较):比较有用的结果(可将结果与前面没有初始类中心比较):w聚类结果形成的最后四类中心点聚类结果形成的最后四类中心点(Final Cluster Centers) w每类的观测量数
9、目(每类的观测量数目(Number of Cases in each Cluster)w在数据文件中的两个新变量在数据文件中的两个新变量qc1_1(每个观测量最终被分配(每个观测量最终被分配到哪一类)和到哪一类)和 qc1_2(观测量与所属(观测量与所属类中心点的距离)类中心点的距离)14.3 分层聚类(Hierarchical Cluster)分层聚类方法:分层聚类方法:n分解法分解法:先视为一大类,再分成几类先视为一大类,再分成几类n凝聚法凝聚法:先视每个为一类先视每个为一类,再合并为几大类再合并为几大类可用于观测量可用于观测量(样本样本)聚类聚类(Q型型)和变量聚类和变量聚类(R型型)一
10、般分为两步(自动一般分为两步(自动,可从可从Paste的语句知道的语句知道,P359):):nProximities:先对数据进行的预处理:先对数据进行的预处理(标准化和计算距离等标准化和计算距离等)nCluster:然后进行聚类分析:然后进行聚类分析两种统计图:树形图两种统计图:树形图(Dendrogram)和冰柱图和冰柱图(Icicle)各类型数据的标准化、距离和相似性计算各类型数据的标准化、距离和相似性计算P348-354n定距变量、分类变量、二值变量定距变量、分类变量、二值变量n标准化方法标准化方法p353:Z Scores、Range -1 to 1、 Range 0 to 1等等1
11、4.3.4 用分层聚类法进行观测量聚类实例P358对对20种啤酒进行分类种啤酒进行分类(data14-02),变量包括变量包括:Beername(啤酒名称啤酒名称)、calorie(热量热量)、sodium(钠含量钠含量)、alcohol(酒精含量酒精含量)、 cost(价格价格)AnalyzeClassify Hierarchical Cluster:nVariables: calorie,sodium,alcohol, cost 成分和价格成分和价格nLabel Case By: BeernamenCluster:Case, Q聚类聚类 nDisplay: 选中选中Statistics,单
12、击,单击StatisticswAgglomeration Schedule Agglomeration Schedule 凝聚状态表凝聚状态表wProximity matrixProximity matrix:距离矩阵:距离矩阵wCluster membershipCluster membership:Single solutionSingle solution:4 4 显示分为显示分为4 4类时,各观测类时,各观测量所属的类量所属的类nMethod: Cluster (Furthest Neighbor), Measure-Interval (Squared Euclidean distan
13、ce), Transform Value (Range 0-1/By variable (值值-最小值最小值)/极差极差)nPlots: (Dendrogram) Icicle(Specified range of cluster, Start-1,Stop-4, by-1), Orientation (Vertical纵向作图纵向作图)nSave: Cluster Membership(Single solution 4)n比较有用的结果:根据需要进行分类,在数据文件中的分类新变量比较有用的结果:根据需要进行分类,在数据文件中的分类新变量clu4_1等等14.3.5 用分层聚类法进行变量聚类
14、变量聚类,是一种降维的方法,用于在变量聚类,是一种降维的方法,用于在变量众多时寻找有代表性的变量,以便变量众多时寻找有代表性的变量,以便在用少量、有代表性的变量代替大变量在用少量、有代表性的变量代替大变量集时,损失信息很少。集时,损失信息很少。与进行观测量聚类雷同,不同点在于:与进行观测量聚类雷同,不同点在于:w选择选择Variable而非而非CasewSave选项失效,不建立的新变量选项失效,不建立的新变量14.3.6 变量聚类实例1 P366上面啤酒分类问题上面啤酒分类问题data14-02。AnalyzeClassify Hierarchical Cluster:nVariables:
15、calorie,sodium,alcohol, cost 成分和价格成分和价格nCluster:Variable, R聚类聚类 nMethod:wCluster Method :Furthest NeighborwMeasure-Interval:Pearson CorrelationwTransform Values:Z Score (By Variable)nPlots: Dendrogram 树型图树型图nStatistics:Proximity matrixProximity matrix:相关矩阵:相关矩阵n比较有用的结果:根据相关矩阵和树型图,可知比较有用的结果:根据相关矩阵和树型
16、图,可知calorie(热量热量)和和alcohol(酒酒精含量精含量)的相关系数最大,首先聚为一类。从整体上看,聚为三类是比较好的的相关系数最大,首先聚为一类。从整体上看,聚为三类是比较好的结果。至于热量和酒精含量选择哪个作为典型指标代替原来的两个变量,可结果。至于热量和酒精含量选择哪个作为典型指标代替原来的两个变量,可以根据专业知识或测度的难易程度决定。以根据专业知识或测度的难易程度决定。14.3.6 变量聚类实例2 P368有有10个测试项目,分别用变量个测试项目,分别用变量X1-X10表示,表示,50名学生参加测试。想从名学生参加测试。想从10个变量中选择几个变量中选择几个典型指标。个
17、典型指标。data14-03AnalyzeClassify Hierarchical Cluster:nVariables: X1-X10nCluster:Variable, R聚类聚类 nMethod:wCluster Method :Furthest NeighborwMeasure-Interval:Pearson CorrelationnPlots: Dendrogram 树型图树型图nStatistics:Proximity matrixProximity matrix相关矩阵相关矩阵n比较有用的结果:可以从树型图中看出聚类过程。具体聚为几类最为合理,比较有用的结果:可以从树型图中看
18、出聚类过程。具体聚为几类最为合理,根据专业知识来定。而每类中的典型指标的选择,可用根据专业知识来定。而每类中的典型指标的选择,可用p370的相关指数公的相关指数公式的计算,然后比较类中各个变量间的相关指数,哪个大,就选哪个变量作式的计算,然后比较类中各个变量间的相关指数,哪个大,就选哪个变量作为此类的代表变量。为此类的代表变量。14.4 判别分析P374判别分析的概念:是根据观测到的若干变量值,判断判别分析的概念:是根据观测到的若干变量值,判断研究对象如何分类的方法。研究对象如何分类的方法。要先建立判别函数要先建立判别函数 Y=a1x1+a2x2+.anxn,其中,其中:Y为为判别分数判别分数
19、(判别值判别值),x1 x2.xn为反映研究对象特征的变为反映研究对象特征的变量,量,a1 a2.an为系数为系数SPSS对于分为对于分为m类的研究对象,建立类的研究对象,建立m个线性判别函个线性判别函数。对于每个个体进行判别时,把观测量的各变量值数。对于每个个体进行判别时,把观测量的各变量值代入判别函数,得出判别分数,从而确定该个体属于代入判别函数,得出判别分数,从而确定该个体属于哪一类,或计算属于各类的概率,从而判别该个体属哪一类,或计算属于各类的概率,从而判别该个体属于哪一类。还建立标准化和未标准化的典则判别函数。于哪一类。还建立标准化和未标准化的典则判别函数。具体见下面具体见下面吴喜之
20、教授有关判别分析判别分析的讲义补充:补充:聚类分析与判别分析以下的讲义是吴喜之教授有关聚类分析与判别分析聚类分析与判别分析的讲义,我觉得比书上讲得清楚。先是聚类分析一章先是聚类分析一章再是判别分析一章再是判别分析一章聚类分析聚类分析分类分类俗语说,物以类聚、人以群分。俗语说,物以类聚、人以群分。但什么是分类的根据呢?但什么是分类的根据呢?比如,要想把中国的县分成若干类,就有很比如,要想把中国的县分成若干类,就有很多种分类法;多种分类法;可以按照自然条件来分,可以按照自然条件来分,比如考虑降水、土地、日照、湿度等各方面;比如考虑降水、土地、日照、湿度等各方面;也可以考虑收入、教育水准、医疗条件、
21、基也可以考虑收入、教育水准、医疗条件、基础设施等指标;础设施等指标;既可以用某一项来分类,也可以同时考虑多既可以用某一项来分类,也可以同时考虑多项指标来分类。项指标来分类。 聚类分析聚类分析对于一个数据,人们既可以对变量(指标)进对于一个数据,人们既可以对变量(指标)进行分类行分类(相当于对数据中的列分类相当于对数据中的列分类),也可以对,也可以对观测值(事件,样品)来分类(相当于对数据观测值(事件,样品)来分类(相当于对数据中的行分类)。中的行分类)。比如学生成绩数据就可以对学生按照理科或文比如学生成绩数据就可以对学生按照理科或文科成绩(或者综合考虑各科成绩)分类,科成绩(或者综合考虑各科成
22、绩)分类,当然,并不一定事先假定有多少类,完全可以当然,并不一定事先假定有多少类,完全可以按照数据本身的规律来分类。按照数据本身的规律来分类。本 章 要 介 绍 的 分 类 的 方 法 称 为 聚 类 分 析本 章 要 介 绍 的 分 类 的 方 法 称 为 聚 类 分 析(cluster analysis)。对变量的聚类称为)。对变量的聚类称为R型聚类,而对观测值聚类称为型聚类,而对观测值聚类称为Q型聚类。这两型聚类。这两种聚类在数学上是对称的,没有什么不同。种聚类在数学上是对称的,没有什么不同。 饮料数据(饮料数据(drink.sav )16种饮料的热量、咖啡因、钠及价格四种变量 如何度量
23、远近如何度量远近?如果想要对100个学生进行分类,如果仅仅知道他们的数学成绩,则只好按照数学成绩来分类;这些成绩在直线上形成100个点。这样就可以把接近的点放到一类。如果还知道他们的物理成绩,这样数学和物理成绩就形成二维平面上的100个点,也可以按照距离远近来分类。三维或者更高维的情况也是类似;只不过三维以上的图形无法直观地画出来而已。在饮料数据中,每种饮料都有四个变量值。这就是四维空间点的问题了。 两个距离概念两个距离概念按照远近程度来聚类需要明确两个概念:一个是按照远近程度来聚类需要明确两个概念:一个是点和点点和点之间之间的距离,一个是的距离,一个是类和类之间类和类之间的距离。的距离。点间
24、距离有很多定义方式。最简单的是歐氏距离,还有点间距离有很多定义方式。最简单的是歐氏距离,还有其他的距离。其他的距离。当然还有一些和距离相反但起同样作用的概念,比如相当然还有一些和距离相反但起同样作用的概念,比如相似性等,两点越相似度越大,就相当于距离越短。似性等,两点越相似度越大,就相当于距离越短。由一个点组成的类是最基本的类;如果每一类都由一个由一个点组成的类是最基本的类;如果每一类都由一个点组成,那么点间的距离就是类间距离。但是如果某一点组成,那么点间的距离就是类间距离。但是如果某一类包含不止一个点,那么就要确定类间距离,类包含不止一个点,那么就要确定类间距离,类间距离是基于点间距离定义的
25、:比如类间距离是基于点间距离定义的:比如两类之间最近点两类之间最近点之间的距离之间的距离可以作为这两类之间的距离,也可以用可以作为这两类之间的距离,也可以用两类两类中最远点之间的距离中最远点之间的距离作为这两类之间的距离;当然也可作为这两类之间的距离;当然也可以用各类的中心之间的距离来作为类间距离。在计算时,以用各类的中心之间的距离来作为类间距离。在计算时,各种点间距离和类间距离的选择是通过统计软件的选项各种点间距离和类间距离的选择是通过统计软件的选项实现的。不同的选择的结果会不同,但一般不会差太多。实现的。不同的选择的结果会不同,但一般不会差太多。 向量向量x=(x1, xp)与与y=(y1
26、, yp)之间的距离或相似系数之间的距离或相似系数:2()iiixy欧氏距离欧氏距离:Euclidean平方欧氏距离平方欧氏距离:Squared Euclidean2()iiixy夹角余弦夹角余弦(相似系数相似系数1) :cosine22(1)cosiiixyxyiiiix yCxyPearson correlation(相似系数相似系数2):Chebychev: Maxi|xi-yi|Block(绝对距离绝对距离): S Si|xi-yi|Minkowski:1()qqiiixy当变量的测量值相差悬殊时当变量的测量值相差悬殊时,要先进行要先进行标准化标准化. 如如R为极差为极差, s 为标准
27、差为标准差, 则标则标准化的数据为每个观测值减去均值后准化的数据为每个观测值减去均值后再除以再除以R或或s. 当观测值大于当观测值大于0时时, 有人有人采用采用Lance和和Williams的距离的距离|1iiiiixypxy22()()(2)()()iiixyxyiiiixxyyCrxxyy类类Gp与类与类Gq之间的距离之间的距离Dpq(d(xi,xj)表示表示点点xi Gp和和xj Gq之间的距离之间的距离)min ( ,)pqijDd x x最短距离法最短距离法:最长距离法最长距离法:重心法重心法:离差平方和离差平方和:(Wald)类平均法类平均法:(中间距离中间距离, 可变平均法可变平
28、均法,可变法等可参考各书可变法等可参考各书).在用欧氏距离时在用欧氏距离时, 有统一的递推公式有统一的递推公式(假设假设Gr是从是从Gp和和Gq合并而来合并而来):121 21 212()(),()(),()()ipjqkpqipipjqjqxGxGkipqxGGDxxxxDxxxxDxxxxDDDDmax ( ,)pqijDd x xmin (,)pqpqDd xx121( ,)ipjqpqijxGxGDd x xn n Lance和和Williams给出给出(对欧氏距离对欧氏距离)统一统一递推递推公式公式:D2(k,r)=a apD2(k,p)+a aqD2(k,q)+b bD2(p,q)
29、 +g g|D2(k,p)-D2(k,q)|前面方法的递推公式可选择参数而得前面方法的递推公式可选择参数而得:方法方法a ai (i=p,q) b b g g最短距离最短距离 0-1/2最长距离最长距离 01/2重心重心 ni/nr -a apa aq 0类平均类平均 ni/nr 0 0 离差平方和离差平方和(ni+nk)/ (nr+nk) -nk/ (nr+nk) 0 中间距离中间距离 1/2 -1/4 0 可变法可变法 (1-b b)/2 b b(1) 0 可变平均可变平均 (1- b b) ni/nr b b(1) 0 有了上面的点间距离和类间有了上面的点间距离和类间距离的概念,就可以介
30、绍聚距离的概念,就可以介绍聚类的方法了。这里介绍两个类的方法了。这里介绍两个简单的方法。简单的方法。 事先要确定分多少类:事先要确定分多少类:k-均值聚类均值聚类 前面说过,聚类可以走着瞧,不一定事先确定有多少类;前面说过,聚类可以走着瞧,不一定事先确定有多少类;但是这里的但是这里的k-均值聚类(均值聚类(k-means cluster,也叫快速聚,也叫快速聚类,类,quick cluster)却要求你先说好要分多少类。看起来)却要求你先说好要分多少类。看起来有些主观,是吧!有些主观,是吧!假定你说分假定你说分3类,这个方法还进一步要求你事先确定类,这个方法还进一步要求你事先确定3个点个点为为
31、“聚类种子聚类种子”(SPSS软件软件自动自动为你选种子为你选种子);也就是说,;也就是说,把这把这3个点作为三类中每一类的基石。个点作为三类中每一类的基石。然后,根据和这三个点的距离远近,把所有点分成三类。然后,根据和这三个点的距离远近,把所有点分成三类。再把这三类的中心(均值)作为新的基石或种子(原来的再把这三类的中心(均值)作为新的基石或种子(原来的“种子种子”就没用了),重新按照距离分类。就没用了),重新按照距离分类。如此叠代下去,直到达到停止叠代的要求(比如,各类最如此叠代下去,直到达到停止叠代的要求(比如,各类最后变化不大了,或者叠代次数太多了)。显然,前面的聚后变化不大了,或者叠
32、代次数太多了)。显然,前面的聚类种子的选择并不必太认真,它们很可能最后还会分到同类种子的选择并不必太认真,它们很可能最后还会分到同一类中呢。下面用饮料例的数据来做一类中呢。下面用饮料例的数据来做k-均值聚类。均值聚类。 假定要把这假定要把这1616种饮料分成种饮料分成3 3类。利用类。利用SPSSSPSS,只,只叠代了三次就达到目标了(计算机选的种子还叠代了三次就达到目标了(计算机选的种子还可以)。这样就可以得到最后的三类的中心以可以)。这样就可以得到最后的三类的中心以及每类有多少点及每类有多少点 Final Cluster CentersFinal Cluster Centers203.10
33、33.71107.341.654.163.4913.0510.068.763.152.692.94CALORIECAFFEINESODIUMPRICE123ClusterNumber of Cases in each ClusterNumber of Cases in each Cluster2.0007.0007.00016.000.000123ClusterValidMissing根据需要,可以输出哪些根据需要,可以输出哪些点分在一起。结果是:第点分在一起。结果是:第一类为饮料一类为饮料1、10;第二;第二类为饮料类为饮料2、4、8、11、12、13、14;第三类为剩下的;第三类为剩下的饮
34、料饮料3、5、6、7、9、15、16。SPSSSPSS实现实现( (聚类分析聚类分析) )K-均值聚类均值聚类以数据以数据drink.sav为例,在为例,在SPSS中选择中选择AnalyzeClassifyK-Menas Cluster,然后把然后把calorie(热量)、(热量)、caffeine(咖啡(咖啡因)、因)、sodium(钠)、(钠)、price(价格)选(价格)选入入Variables, 在在Number of Clusters处选择处选择3(想要分(想要分的类数),的类数),如果想要知道哪种饮料分到哪类,则选如果想要知道哪种饮料分到哪类,则选Save,再选,再选Cluster
35、 Membership等。等。注意注意k-均值聚类只能做均值聚类只能做Q型聚类,如要做型聚类,如要做R型聚类,需要把数据阵进行转置。型聚类,需要把数据阵进行转置。事先不用确定分多少类:分层聚类事先不用确定分多少类:分层聚类 另一种聚类称为分层聚类或系统聚类另一种聚类称为分层聚类或系统聚类(hierarchical cluster)。开始时,)。开始时,有多少点就是多少类。有多少点就是多少类。它第一步先把最近的两类(点)合并它第一步先把最近的两类(点)合并成一类,然后再把剩下的最近的两类成一类,然后再把剩下的最近的两类合并成一类;合并成一类;这样下去,每次都少一类,直到最后这样下去,每次都少一类
36、,直到最后只有一大类为止。显然,越是后来合只有一大类为止。显然,越是后来合并的类,距离就越远。再对饮料例子并的类,距离就越远。再对饮料例子来实施分层聚类。来实施分层聚类。 对于我们的数据,对于我们的数据,SPSSSPSS输出的树型图为输出的树型图为聚类要注意的问题聚类要注意的问题 聚类结果主要受所选择的变量影响。如果去聚类结果主要受所选择的变量影响。如果去掉一些变量,或者增加一些变量,结果会很掉一些变量,或者增加一些变量,结果会很不同。不同。相比之下,聚类方法的选择则不那么重要了。相比之下,聚类方法的选择则不那么重要了。因此,聚类之前一定要目标明确。因此,聚类之前一定要目标明确。 另外就分成多
37、少类来说,也要有道理。只要另外就分成多少类来说,也要有道理。只要你高兴,从分层聚类的计算机结果可以得到你高兴,从分层聚类的计算机结果可以得到任何可能数量的类。但是,聚类的目的是要任何可能数量的类。但是,聚类的目的是要使各类距离尽可能的远,而类中点的距离尽使各类距离尽可能的远,而类中点的距离尽可能的近,而且分类结果还要有令人信服的可能的近,而且分类结果还要有令人信服的解释。这一点就不是数学可以解决的了。解释。这一点就不是数学可以解决的了。SPSSSPSS实现实现( (聚类分析聚类分析) )分层聚类对drink.sav数据在SPSS中选择AnalyzeClassifyHierarchical Cl
38、uster, 然后把calorie(热量)、caffeine(咖啡因)、sodium(钠)、price(价格)选入Variables, 在Cluster选Cases(这是Q型聚类:对观测值聚类),如果要对变量聚类(R型聚类)则选Variables, 为了画出树状图,选Plots,再点Dendrogram等。 啤酒成分和价格数据(啤酒成分和价格数据(data14-02)啤酒名啤酒名热量热量钠含量钠含量酒精酒精价格价格Budweiser 144.00 19.00 4.70 .43 Schlitz 181.00 19.00 4.90 .43 Ionenbrau 157.00 15.00 4.90 .
39、48 Kronensourc 170.00 7.00 5.20 .73 Heineken 152.00 11.00 5.00 .77 Old-milnaukee145.00 23.00 4.60 .26 Aucsberger 175.00 24.00 5.50 .40 Strchs-bohemi149.00 27.00 4.70 .42 Miller-lite 99.00 10.00 4.30 .43 Sudeiser-lich113.00 6.00 3.70 .44 Coors 140.00 16.00 4.60 .44 Coorslicht 102.00 15.00 4.10 .46 Mi
40、chelos-lich135.00 11.00 4.20 .50 Secrs 150.00 19.00 4.70 .76 Kkirin 149.00 6.00 5.00 .79 Pabst-extra-l 68.00 15.00 2.30 .36 Hamms 136.00 19.00 4.40 .43 Heilemans-old144.00 24.00 4.90 .43 Olympia-gold- 72.00 6.00 2.90 .46 Schlite-light 97.00 7.00 4.20 .47StatisticsClassify Hierarchical Cluster:Variab
41、les:啤酒名和成分价格等Cluster(Case, Q型聚类) Display: (Statistics)(Agglomeration Schedule凝聚状态表), (Proximity matrix), Cluster membership(Single solution, 4)Method: Cluster (Furthest Neighbor), Measure-Interval (Squared Euclidean distance), Transform Value (Range 0-1/By variable (值-最小值)/极差)Plots: (Dendrogram) Ici
42、cle(Specified range of cluster, Start-1,Stop-4, by-1), Orientation (Vertical)Save: Cluster Membership(Single solution 4)啤酒例子啤酒例子下表下表(Proximity matrix)中行列交叉点为中行列交叉点为两种啤酒之间各变量的欧氏距离平方和两种啤酒之间各变量的欧氏距离平方和Case Processing SummaryCase Processing Summarya a20100.0%0.0%20100.0%NPercentNPercentNPercentValidMiss
43、ingTotalCases Squared Euclidean Distance useda. P Pr ro ox xi im mi it ty y M Ma at tr ri ix x.000.111.062.724.570.140.198.147.358.556 .023.213.193 .391.8551.069 .014.0611.109.530.111.000.090.665.623.249.098.230.745.886 .161.591.376 .467.9261.714 .183.1641.708.933.062.090.000.390.339.337.267.348.364
44、.482 .039.301.123 .323.5321.332 .104.2061.142.475.724.665.390.000.0711.4511.0541.308.815.776 .589.885.418 .385.0542.269 .8001.0371.531.756.570.623.339.071.0001.272.9361.026.682.729 .471.653.345 .155.0591.899 .612.8011.331.656.140.249.3371.451 1.272.000.222.130.661.930 .228.457.555 .929 1.6721.162 .1
45、49.1141.497.934.198.098.2671.054.936.222.000.1371.0411.358 .326.805.709 .630 1.3542.086 .297.1142.2391.314.147.230.3481.308 1.026.130.137.000.8671.201 .283.540.643 .557 1.4961.416 .168.0271.7861.152.358.745.364.815.682.6611.041.867.000.087 .222.065.122 .791.741.540 .292.638.288.027.556.886.482.776.7
46、29.9301.3581.201.087.000 .363.210.132 .953.703.556 .473.951.196.050.023.161.039.589.471.228.326.283.222.363 .000.141.087 .394.685.948 .026.156.873.347.213.591.301.885.653.457.805.540.065.210 .141.000.128 .572.823.443 .139.388.395.148.193.376.123.418.345.555.709.643.122.132 .087.128.000 .428.434.810
47、.167.455.538.153.391.467.323.385.155.929.630.557.791.953 .394.572.428 .000.3951.695 .412.4511.496.870.855.926.532.054.0591.6721.3541.496.741.703 .685.823.434 .395.0002.068 .8931.1991.283.6411.069 1.7141.3322.269 1.8991.1622.0861.416.540.556 .948.443.810 1.695 2.068.000 .8471.314.256.607.014.183.104.
48、800.612.149.297.168.292.473 .026.139.167 .412.893.847 .000.086.927.455.061.164.2061.037.801.114.114.027.638.951 .156.388.455 .451 1.1991.314 .086.0001.535.8821.109 1.7081.1421.531 1.3311.4972.2391.786.288.196 .873.395.538 1.496 1.283.256 .9271.535.000.217.530.933.475.756.656.9341.3141.152.027.050 .3
49、47.148.153 .870.641.607 .455.882.217.000Case1: Budweiser2: Schlitz3: Ionenbrau4: Kronensourc5: Heineken6: Old-milnaukee7: Aucsberger8: Strchs-bohemi9: Miller-lite10: Sudeiser-lich11: Coors12: Coorslicht13: Michelos-lich14: Secrs15: Kkirin16: Pabst-extra-l17: Hamms18: Heilemans-old19: Olympia-gold-20
50、: Schlite-light1: Budweiser2: Schlitz3: Ionenbrau4:Kronensourc5: Heineken6:Old-milnaukee7: Aucsberger8:Strchs-bohemi9:Miller-lite10:Sudeiser-lich11: Coors12:Coorslicht13:Michelos-lich14: Secrs15: Kkirin16:Pabst-extra-l17: Hamms18:Heilemans-old19:Olympia-gold-20:Schlite-light Squared Euclidean Distan