第4章分类基本概念、决策树与模型评估课件.ppt

上传人(卖家):晟晟文业 文档编号:4622312 上传时间:2022-12-26 格式:PPT 页数:64 大小:6.61MB
下载 相关 举报
第4章分类基本概念、决策树与模型评估课件.ppt_第1页
第1页 / 共64页
第4章分类基本概念、决策树与模型评估课件.ppt_第2页
第2页 / 共64页
第4章分类基本概念、决策树与模型评估课件.ppt_第3页
第3页 / 共64页
第4章分类基本概念、决策树与模型评估课件.ppt_第4页
第4页 / 共64页
第4章分类基本概念、决策树与模型评估课件.ppt_第5页
第5页 / 共64页
点击查看更多>>
资源描述

1、2022-12-26第4章分类基本概念、决策树与模型评估第第4章分类基本概念、决章分类基本概念、决策树与模型评估策树与模型评估第4章分类基本概念、决策树与模型评估分类任务:确定对象属于哪个预定义的目标类例子:1、根据电子邮件的标题和内容检查出垃圾邮件。2、根据星系的形状对它们分类。螺旋状的星系椭圆状的星系一、预备知识一、预备知识第4章分类基本概念、决策树与模型评估分类任务的输入数据是记录的集合。每条记录也称实例或者样例,用元组(x,y)表示,其中x是属性的集合,而y是一个特殊的属性,指出样例的类标号(也成为分类属性或目标属性)。分类?回归?第4章分类基本概念、决策树与模型评估分类(classi

2、fication)通过学习得到一个目标函数(target function),也成为分类模型(classification model),把每个属性集x映射到一个预先定义的类标号y。目的:1、描述性建模 分类模型可以作为解释性的工具,用于区分不同类中的对象。2、预测性建模 分类模型还可以用于预测未知记录的类标号。名字名字体温体温表皮表皮覆盖覆盖胎生胎生水生水生动物动物飞行飞行动物动物有腿有腿冬眠冬眠类标类标号号毒蜥冷血鳞片否否否是是?第4章分类基本概念、决策树与模型评估输入属性集(x)分类模型输出类标号(y)分类器的任务:根据输入属性集x确定类标号y分类技术非常适合预测或描述二元或标称类型的数

3、据集,对序数分类不太有效,因为分类技术不考虑隐含在目标类中的序关系。第4章分类基本概念、决策树与模型评估分类技术是一种根据输入数据集建立分类模型的系统方法。分类技术决策树分类法决策树分类法基于规则的分类法基于规则的分类法神经网络神经网络支持向量机支持向量机这些技术都使用一种学习算法确定分类模型,修改这个模型能够很好地拟合输入数据中类标号和属性集之间的联系。学习算法得到的模型不仅要很好地拟合输入数据,还要能够正确地预测未知样本的类标号。训练算法的目标:建立具有很好的泛化能力的模型。二、解决分类问题的一般方法二、解决分类问题的一般方法朴素贝叶斯分类法朴素贝叶斯分类法第4章分类基本概念、决策树与模型

4、评估训练集:由类标号已知的记录构成检验集:由类标号未知的记录构成第4章分类基本概念、决策树与模型评估预测的类预测的类类=1类=0实际的类类=1类=0二类问题的混淆矩阵表中每个表项 表示实际类标号为 但是被预测为类 的记录数。被分类模型正确预测的样本总数是 ,而被错误预测的样本总数是 。虽然混淆矩阵提供衡量分类模型的信息,但是用一个数汇总这些信息更便于比较不同模型的性能。为实现这一目的,可以使用性能度量(performance metric),如准确率(accuracy),其定义如下:第4章分类基本概念、决策树与模型评估同样,分类模型的性能也可以用错误率(error rate)来表示,其定义如下

5、:目标:寻求最高的准确率或者最低的错误率第4章分类基本概念、决策树与模型评估1、什么是决策树?类似于流程图的树结构每个内部节点表示在一个属性上的测试每个分枝代表一个测试输出每个叶节点代表类或类分布三、决策树(三、决策树(decision tree)归纳)归纳3、决策树的使用:对未知样本进行分类通过将样本的属性值与决策树相比较2、决策树的生成由两个阶段组成决策树构建开始时,所有的训练样本都在根节点递归通过选定的属性,来划分样本(必须是离散值)树剪枝许多分枝反映的是训练数据中的噪声和孤立点,树剪枝试图检测和剪去这种分枝第4章分类基本概念、决策树与模型评估根结点(root node):它没有入边,但

6、是有零条或多条出边。内部结点(internal node):恰好有一条入边和两条或多条出边。叶节点(leaf node)或终结点(terminal node):恰好有一条入边,但没有出边。叶结点根结点内部结点体温胎生非哺乳动物哺乳动物非哺乳动物恒温否冷血是第4章分类基本概念、决策树与模型评估 一旦构造了决策树,对检验记录进行分类就很容易。从树的根结点开始,将测试条件用于检验记录,根据测试结果选择适当的分支。沿着该分支或者到达另一个内部结点,使用新的测试条件,或者到达一个叶结点。到达叶结点之后,叶结点的类标号就被赋值给该检验记录。名字名字体温体温胎生胎生类标号类标号火烈鸟恒温否?体温胎生非哺乳动

7、物哺乳动物非哺乳动物恒温否冷血是第4章分类基本概念、决策树与模型评估如何建立决策树 对于给定的属性集,可以构造的决策树的数目达指数级。尽管某些决策树比其他决策树更准确,但是由于搜索空间是指数规模的,找出最佳决策树在计算上是不可行的。尽管如此,人们还是开发了一些有效的算法,能够在合理的时间内构造出具有一定准确率的次最优决策树。这些算法通常都采用贪心策略。有许多决策树算法:(ID3ID3)(C4.5C4.5)(SLIQ(SLIQ,SPRINT)SPRINT)第4章分类基本概念、决策树与模型评估在Hunt算法中,通过将训练记录相继划分成较纯的子集,以递归方式建立决策树。设 是与结点t相关联的训练记录

8、集,而 是类标号,Hunt算法的递归定义如下。(1)如果 中所有记录都属于同一个类 ,则t是叶结点,用 标记。(2)如果 中包含属于多个类的记录,则选择一个属性测试条件,将记录划分成较小的子集。对于测试条件的每个输出,创建一个子女结点,并根据测试结果将 中的记录分布到子女结点中。然后,对于每个子女结点,递归地调用该算法。第4章分类基本概念、决策树与模型评估Hunt算法Tid有房者有房者婚姻状况婚姻状况年收入年收入拖欠贷款者拖欠贷款者1是单身125k否2否已婚100k否3否单身70k否4是已婚120k否5否离异95k是6否已婚60k否7是离异220k否8否单身85k是9否已婚75k否10否单身9

9、0k是第4章分类基本概念、决策树与模型评估拖欠贷款者=否拖欠贷款者=否拖欠贷款者=否有房者拖欠贷款者=否有房者拖欠贷款者=否婚姻状况年收入拖欠贷款者=是拖欠贷款者=否(b)(c)(d)(a)拖欠贷款者=否有房者拖欠贷款者=否婚姻状况拖欠贷款者=是是是否否否是单身离异单身离异已婚已婚=80kHunt算法构造决策树第4章分类基本概念、决策树与模型评估如果属性值的每种组合都在训练数据中出现,并且每种组合都具有唯一的类标号,则Hunt算法是有效的。但是对于大多数实际情况,这些假设太苛刻了,因此,需要附加的条件来处理以下的情况:(1)算法的第二步所创建的子女结点可能为空,即不存在与这些结点相关联的记录。

10、如果没有一个训练记录包含这样的结点相关联的属性值组合,这种情形就可能发生。这时,该结点成为叶结点,类标号为其父结点上训练记录中的多数类。(2)在第二步,如果与 相关联的所有记录都具有相同的属性值(目标属性除外),则不可能进一步划分这些记录。在这种情况下,该结点为叶结点,其标号为与该结点相关联的训练记录中的多数类。第4章分类基本概念、决策树与模型评估决策树归纳的设计问题(1)如何分裂训练记录?(2)如何停止分裂过程?树增长过程的每个递归步骤都必须选择一个属性测试条件,将记录划分成较小的子集。为了实现这个步骤。算法必须提供为不同类型的属性指定测试条件的方法,并且提供评估每种测试条件的客观度量。决策

11、树需要有结束条件,以终止决策树的生长过程。一个可能的策略是分裂结点,直到所有的记录都属于同一个类,或者所有的记录都具有相同的属性值。第4章分类基本概念、决策树与模型评估表示属性测试条件的方法1、二元属性 二元属性的测试条件产生两个可能的输出。体温恒温冷血二元属性的测试条件第4章分类基本概念、决策树与模型评估2、标称属性由于标称属性有多个属性值,它的测试条件可以用两种方法表示。婚姻状况单身已婚离异婚姻状况已婚单身,离异婚姻状况离异单身,已婚婚姻状况单身已婚,离异多路划分二元划分(通过属性值分组)第4章分类基本概念、决策树与模型评估3、序数属性序数属性也可以产生二元或多路划分,只要不违背序数属性值

12、的有序性,就可以对属性值进行分组。衬衣尺码小号,中号大号,加大号衬衣尺码小号中号,加大号衬衣尺码小号,大号中号,加大号(a)(b)(c)第4章分类基本概念、决策树与模型评估4、连续属性对于连续属性来说,测试条件可以是具有二元输出的比较测试 或 也可以是具有形如 输出的范围查询。年收入80k(a)(b)年收入是否10k10k,25k10k25k,50k50k,80k连续属性的测试条件第4章分类基本概念、决策树与模型评估有很多度量可以用来确定划分记录的最佳方法,这些度量用划分前和划分后的记录的类分布定义。选择最佳划分的度量设 表示给定结点t中属于类i的记录所占的比例,有时,我们省略结点t,直接用

13、表示该比例。在两类问题中,任意结点的类分布都可以记作 其中 。性别男女车型家用运动豪华C0:6C1:4C0:4C1:6C0:1C1:3C0:8C1:0C0:1C1:7(b)(a)C0:1C1:0C0:1C1:0C0:0C1:1C0:0C1:1顾客IDv1v10v20v11(c)第4章分类基本概念、决策树与模型评估选择最佳划分的度量通常是根据划分后子女结点不纯性的度量。不纯的程度越低,类分布就越倾斜。例如(0,1)的结点具有零不纯性,而均衡分布(0.5,0.5)的结点具有最高的不纯性。不纯性度量的例子包括:熵:基尼指数:分类误差:其中c是类的个数,并且在计算熵时,第4章分类基本概念、决策树与模型

14、评估结点结点N1计数计数类=00类=16结点结点N3计数计数类=03类=13结点结点N2计数计数类=01类=15第4章分类基本概念、决策树与模型评估二元分类问题不纯性度量之间的比较不同的不纯性度量是一致的,但是作为测试条件的属性选择仍然因不纯性度量的选择而异。第4章分类基本概念、决策树与模型评估为确定测试条件的效果,我们需要比较父结点(划分前)的不纯性程度和子女结点(划分后)的不纯性程度,它们的差越大,测试条件的效果就越好。增益 是一种可以用来确定划分效果的标准:其中,是给定结点的不纯性度量,N是父结点上的记录总数,k是属性值的个数,是与子女结点 相关联的记录个数。决策树算法选择最大化增益的测

15、试条件。第4章分类基本概念、决策树与模型评估B是否结点 N1结点 N2A是否结点 N1结点 N2父结点父结点C06C16Gini=0.500N1N1N2N2C042C133Gini=0.486N1N1N2N2C015C142Gini=0.3711、二元属性的划分第4章分类基本概念、决策树与模型评估2、标称属性的划分车型车型运动,豪华家用C091C173Gini0.468车型车型运动家用,豪华C082C1010Gini0.167车型车型家用运动豪华C0181C1307Gini0.163(a)二元划分(b)多路划分标称属性可以产生二元划分或者多路划分第4章分类基本概念、决策树与模型评估3、连续属性

16、的划分1.使用二元划分2.划分点v选择N个记录中所有属性值作为划分点3.对每个划分进行类计数,A v 和 A v4.计算每个候选点v的Gini指标,并从中选择具有最小值的候选划分点5.时间复杂度为O(n2)第4章分类基本概念、决策树与模型评估降低计算复杂性的方法:1.将记录进行排序 2.从两个相邻的排过序的属性值之间选择中间值作为划分点 3.计算每个候选点的Gini值 4.时间复杂度为O(NlogN)第4章分类基本概念、决策树与模型评估4、增益率熵和Gini指标等不纯性度量趋向有利于具有大量不同值的属性。性别男女车型家用运动豪华C0:6C1:4C0:4C1:6C0:1C1:3C0:8C1:0C

17、0:1C1:7(b)(a)测试条件“车型”要比测试条件“性别”要好,因为它产生了更纯的派生结点。测试条件“顾客ID”相比前两个产生更纯的划分,但是它却不是一个有预测性的属性,因为与每个划分相关联的记录太少,以致不能作出可靠的预测。C0:1C1:0C0:1C1:0C0:0C1:1C0:0C1:1顾客IDv1v10v20v11(c)第4章分类基本概念、决策树与模型评估如何解决?如何解决?第一种策略:限制测试条件只能是二元划分。第二种策略:修改评估划分的标准,把属性测试条件产生的输出数也考虑进去。例如:CART就是采用这样的策略。例如:决策树算法C4.5采用增益率(gain ratio)的划分标准来

18、评估划分。第4章分类基本概念、决策树与模型评估决策树归纳特点的总结1、决策树归纳是一种构建分类模型的非参数方法。2、找到最佳的决策树是NP完全问题。3、已开发的构建决策树技术不需要昂贵的计算代价,即使训练集非常 大,也可以快速建立模型。4、决策树相对容易解释,特别是小型的决策树。5、决策树是学习离散值函数的典型代表。6、决策树算法对于噪声的干扰具有相当好的鲁棒性。7、冗余属性不会对决策树的准确率造成不利的影响。8、由于大多数决策树算法都采用自顶向下的递归划分方法,因此沿着树向下,记录会越来越少。第4章分类基本概念、决策树与模型评估9、子树可能在决策树中重复多次,这使得决策树过于复杂,并且可能更

19、难解释。10、目前为止,本章介绍的测试条件每次都只涉及一个属性。二维数据集的决策树及其边界示例第4章分类基本概念、决策树与模型评估使用仅涉及单个属性的测试条件不能有效划分的数据集的例子斜决策树(oblique decision tree)可以克服以上的局限,因为它允许测试条件涉及多个属性。上图中的数据集可以很容易地用斜决策树表示,该决策树只有一个结点,其测试条件为:缺点:尽管这种技术有更强的表达能力,并且能够产生更紧凑的决策树,但是为给定的结点找出最佳测试条件的计算可能是相当复杂的。x+y 1Class=+Class=第4章分类基本概念、决策树与模型评估构造归纳(constructive in

20、duction)提供另一种将数据划分成齐次非矩形区域的方法,该方法创建复合属性,代表已有属性的算术或逻辑组合。新属性提供了更好的类区分能力,并在决策树归纳之前就增广到数据集中。与决策树不同,构造归纳不需要昂贵的花费,因为在构造决策树之前,它只需要一次性地确定属性的所有相关组合,相比之下,在扩展每个内部结点时,斜决策树都需要动态地确定正确的属性组合。然而构造归纳会产生冗余的属性,因为新创建的属性是已有属性的组合。11、研究表明不纯性度量方法的选择对决策树算法的性能影响很小。第4章分类基本概念、决策树与模型评估一个好的分类模型必须具有低训练误差和低泛化误差。四、模型的过分拟合四、模型的过分拟合第4

21、章分类基本概念、决策树与模型评估二维数据过分拟合的例子下图所示的二维数据集中的数据点属于两个类,分别标记为类“o”和类“+”,类“o”的数据点由三个高斯分布混合产生,而类“+”的数据点用一个均匀分布产生。数据集中,总共有1200个数据点是属于类“o”,1800个数据点属于类“+”,其中30%的点用于训练,剩下的70%用于检验。对训练集使用以Gini指标作为不纯性度量的决策树方法。具有两个类的数据集的例子第4章分类基本概念、决策树与模型评估 当决策树很小时,训练误差和检验误差都很大,这种情况称作模型拟合不足(model underfitting)。出现拟合不足的原因是模型尚未学习到数据的真实结构

22、,因此,模型在训练集和检验集上的性能都很差。一旦树的规模变得太大,即使训练误差还在降低,但是检验误差开始增大,这种现象称为模型过分拟合(model overfitting)。训练误差和检验误差第4章分类基本概念、决策树与模型评估 为理解过分拟合现象,举个例子:可以扩展树的叶结点,直到它完全拟合训练数据。虽然这样一颗复杂的树的训练误差为0,但是检验误差可能很大,因为该树可能包含这样的结点,它们偶然地拟合训练数据中某些噪声。这些结点降低了决策树的性能,因为他们不能很好的泛化到检验样本。(a)包含11个叶结点的决策树(b)包含24个叶结点的决策树过分拟合与拟合不足是两种与模型复杂度有关的异常现象。第

23、4章分类基本概念、决策树与模型评估名称名称体温体温胎生胎生4条腿条腿冬眠冬眠类标号类标号豪猪恒温是是是是猫恒温是是否是蝙蝠恒温是否是否*鲸恒温是否否否*蝾螈冷血否是是否科莫多巨蜥冷血否是否否蟒蛇冷血否否是否鲑鱼冷血否否否否鹰恒温否否否否虹鳉冷血是否否否哺乳动物分类的训练数据集样本。(“*”为错误标记记录)十个训练记录中有两个被错误标记:蝙蝠和鲸被错误标记为非哺乳动物,而不是哺乳动物。噪声导致的过分拟合第4章分类基本概念、决策树与模型评估名称名称体温体温胎生胎生4条腿条腿冬眠冬眠类标号类标号人恒温是否否是鸽子恒温否否否否象恒温是是否是豹纹鲨冷血是否否否海龟冷血否是否否企鹅冷血否否否否鳗冷血否否否

24、否海豚恒温是否否是针鼹恒温否是是是希拉毒蜥冷血否是是否哺乳动物分类的检验数据集样本。第4章分类基本概念、决策树与模型评估完全拟合训练数据的决策树显示在下图(a)中,虽然该树的训练误差为0,但是它在检验数据集上的误差高达30%。体温恒温冷血胎生4条腿哺乳类动物非哺乳类动物非哺乳类动物非哺乳类动物是否是否体温恒温冷血胎生非哺乳类动物非哺乳类动物是否哺乳类动物(a)模型M1(b)模型M2图(b)中决策树M2尽管训练误差较高(20%),但是它具有较低的检验误差。第4章分类基本概念、决策树与模型评估缺乏代表性样本导致的过分拟合名称名称体温体温胎生胎生4 4条腿条腿冬眠冬眠类标号类标号蝾螈冷血否是是否虹鳉

25、冷血是否否否鹰恒温否否否否弱夜鹰恒温否否是否鸭嘴兽恒温否是是是体温恒温冷血冬眠4条腿哺乳类动物非哺乳类动物非哺乳类动物非哺乳类动物是否是否 人、大象和海豚都被误分类,因为决策树把恒温但不冬眠的脊柱动物划分为非哺乳动物。决策树做出这样的分类决策是因为只有一个训练记录(鹰)具有这些特性。第4章分类基本概念、决策树与模型评估过分拟合与多重比较过程1、在决策树增长过程中,可以进行多种测试,以确定哪个属性能够最好的划分训练数据。2、在这种情况下,算法实际上是使用多重比较过程来决定是否需要扩展决策树。3、当候选属性多,训练记录数少时,这种影响就变得更加明显。多重比较过程与模型过分拟合有什么关系?第4章分类

26、基本概念、决策树与模型评估1、过分拟合的主要原因一直是个争辩的话题,但大家还是普遍同意模型的复杂度对模型的过分拟合有影响。2、如何确定正确的模型复杂度?理想的复杂度是能产生最低泛化误差的模型的复杂度。3、估计泛化误差的方法使用再代入估计。用训练误差提供对泛化误差的乐观估计结合模型复杂度估计统计上界使用确定集泛化误差估计第4章分类基本概念、决策树与模型评估泛化误差估计1、使用再代入估计再代入估计方法假设训练数据集可以很好地代表整体数据,因而,可以使用训练误差(又称再代入误差)提供泛化误差的乐观估计。但是训练误差通常是泛化误差的一种很差的估计。考虑下图中的二叉决策树。假设两颗决策树都由相同的训练数

27、据产生,并且都根据每个叶结点多数类做出划分。注意,左边的树T1复杂一些,它扩展了右边决策树T2的某些结点。左决策树的训练误差是 ,而右决策树的训练误差是 。根据再代入估计,左决策树要优于右决策树。+:3-:0+:3-:1+:1-:2+:0-:2+:2-:1+:3-:1+:0-:5+:3-:6+:3-:0+:1-:4+:5-:2决策树T1决策树T2第4章分类基本概念、决策树与模型评估2、结合模型复杂度如之前所述,模型越是复杂,出现过分拟合的几率就越高,因此,我们更喜欢采用较为简单的模型。这种策略与应用众所周知的奥卡姆剃刀一致。奥卡姆剃刀:给定两个具有相同泛化误差的模型,较简单的模型比较复杂的模型

28、更可取。悲观误差评估悲观误差评估:使用训练误差与模型复杂度罚项(penalty term)的和计算泛化误差。结果泛化误差可以看作模型的悲观误差估计。设n(t)是结点t分类的训练记录数,e(t)是被误分类的记录数。决策树T的悲观误差估计 可以用下式计算:其中,k是决策树的叶结点数,e(T)是决策树的总训练误差,是训练记录数,是每个结点 对应的罚项。第4章分类基本概念、决策树与模型评估+:3-:0+:3-:1+:1-:2+:0-:2+:2-:1+:3-:1+:0-:5+:3-:6+:3-:0+:1-:4+:5-:2决策树T1决策树T2考虑上图的二叉决策树。如果罚项等于0.5,左边的决策树的悲观误差

29、估计为:右边的决策树的悲观误差估计为:此时,左边的决策树比右边的决策树具有更好的悲观误差估计。第4章分类基本概念、决策树与模型评估最小描述长度原则(最小描述长度原则(minimum description length,MDL)标记的未标记的第4章分类基本概念、决策树与模型评估Cost 是传输总代价。目标:最小化Cost值。其中Cost(Data|Model)是误分类记录编码的开销。Cost(Model)是模型编码的开销。另一种可能是,A决定建立一个分类模型,概括X和y点之间的关系。Cost(Model,Data)=Cost(Data|Model)+Cost(Model)3、估计统计上界泛化误

30、差也可以用训练误差的统计修正来估计。因为泛化误差倾向于比训练误差大,所以统计修正通常是计算训练误差的上界。4、使用确认集在该方法中,不是用训练集估计泛化误差,而是把原始的训练数据集分为两个较小的子集,一个子集用于训练,而另一个称为确认集,用于估计泛化误差。第4章分类基本概念、决策树与模型评估2/3训练集建立模型建立模型误差估计误差估计1/3训练集该方法通常用于通过参数控制获得具有不同复杂度模型的分类技术。通过调整学习算法中的参数,直到学习算法产生的模型在确认集上达到最低的错误率,可以估计最佳模型的复杂度。第4章分类基本概念、决策树与模型评估处理决策树归纳中的过分拟合先剪枝(提前终止规则)树增长

31、算法在产生完全拟合整个训练数据集的之前就停止决策树的生长为了做到这一点,需要采用更具限制性的结束条件:当结点的记录数少于一定阈值,则停止生长当不纯性度量的增益低于某个确定的阈值时,则停止生长(e.g.,information gain).缺点:很难为提前终止选取正确的阈值:(1)阈值太高,导致拟合不足(2)阈值太低,导致不能充分解决过分拟合的问题。后剪枝在该方法中,初始决策树按照最大规模生长,然后进行剪枝的步骤,按照自底向上的方式修剪完全增长的决策树。修剪有两种做法:(1)用新的叶结点替换子树,该叶结点的类标号由子树下记录中的多数类定(2)用子树中最常用的分支代替子树第4章分类基本概念、决策树

32、与模型评估五、评估分类器的性能五、评估分类器的性能一、保持(Holdout)方法将被标记的原始数据划分成两个不相交的集合,分别成为训练集和检验集。在训练集上归纳分类模型,在检验集上评估模型的性能。局限性:1、用于训练的被标记样本较少。2、模型可能高度依赖于训练集和检验集的构成。第4章分类基本概念、决策树与模型评估二、随机二次抽样(random subsampling)随机二次抽样可以多次重复保持方法来改进分类器性能的估计。由于它没有控制每个记录用于训练和检验的次数,因此,有些用于训练的记录使用的频率可能比其他记录高得多。三、交叉验证(cross-validation)在该方法中,每个记录用于训

33、练的次数相同,并且恰好检验一次。例:假设把数据分为相同大小的两个子集,首先,我们选择一个子集作训练集,而另一个作检验集,然后交换两个集合的角色,原先作训练集的现在作检验集,反之亦然,这种方法叫做二折交叉验证。第4章分类基本概念、决策树与模型评估四、自助(bootstrap)法在自助法中,训练记录采用有放回抽样使得它等几率地被重新抽取。如果原始数据有N个记录,可以证明,平均来说,大小为N的自助样本大约包含原始数据的63.2%的记录。至少一个记录被自助样本抽取的概率它通过组合每个自助样本的准确率 和由包含所有标记样本的训练集计算的准确率 计算总准确率 :第4章分类基本概念、决策树与模型评估六、比较

34、分类器的方法六、比较分类器的方法考虑一对分类模型Model A和model B,假设model A在包含30个记录的检验集上的准确率达到85%,而model B在包含5000个记录的不同检验集上达到75%的准确率。model A 好于好于 model B?估计准确度的置信区间 是N次试验观察到的成功次数。检验集的记录个数为N,准确率期望:方差:(抛硬币试验)第4章分类基本概念、决策树与模型评估1第4章分类基本概念、决策树与模型评估比较两个模型的性能考虑一对模型M1和M2,它们在两个独立的检验集D1和D2上进行评估,令n1是D1中的记录数,n2是D2中的记录数。另外,假设M1在D1上的错误率为e

35、1,M2在D2上的错误率为e2。假设n1和n2都充分大,e1和e2可以使用正态分布来近似。如果用d=e1-e2表示错误率的观察差,则d服从均值为 (其实际差)、方差为 的正态分布。D的方差为:其中 和 是错误率的方差。在置信水平 下 的置信区间为:第4章分类基本概念、决策树与模型评估例:模型M1在N1=30个检验记录上的错误率e1=0.15。M2在N2=5000个检验记录上的错误率e2=0.25.错误率的观察差d=|0.15-0.25|=0.1。使用双侧检验来检查 还是 。错误率观察差的估计方差计算如下:或结论:区间跨越0,可以断言在95%的置信水平下,该观察差不是统计显著的。第4章分类基本概

36、念、决策树与模型评估比较两种分类法的性能令 表示分类技术 在第 j 次迭代产生的模型,每对模型 和 在相同的划分j 上进行检验。用e1j和e2j分别表示它们的错误率,它们在第j折上的错误率之差可以记作 。如果k充分大,则 服从于均值为 、方差为 的正态分布。观察差的总方差可以用下式进行估计:其中,是平均差。用t分布计算 的置信区间为:第4章分类基本概念、决策树与模型评估例:假设两个分类技术产生的模型的准确率估计差的均值等于0.05,标准差等于0.002。如果使用30折交叉验证方法估计准确率,则在95%置信水平下,真实准确率为:统计显著查询t分布表2022-12-26第4章分类基本概念、决策树与模型评估

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 办公、行业 > 各类PPT课件(模板)
版权提示 | 免责声明

1,本文(第4章分类基本概念、决策树与模型评估课件.ppt)为本站会员(晟晟文业)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!


侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|