第6章-使用scikit-learn构建模型课件.ppt

上传人(卖家):晟晟文业 文档编号:5175696 上传时间:2023-02-16 格式:PPT 页数:33 大小:2.42MB
下载 相关 举报
第6章-使用scikit-learn构建模型课件.ppt_第1页
第1页 / 共33页
第6章-使用scikit-learn构建模型课件.ppt_第2页
第2页 / 共33页
第6章-使用scikit-learn构建模型课件.ppt_第3页
第3页 / 共33页
第6章-使用scikit-learn构建模型课件.ppt_第4页
第4页 / 共33页
第6章-使用scikit-learn构建模型课件.ppt_第5页
第5页 / 共33页
点击查看更多>>
资源描述

1、大数据,成就未来大数据,成就未来使用scikit-learn构建模型 2大数据挖掘专家1构建并评价聚类模型目录使用sklearn转换器处理数据2构建并评价分类模型3构建并评价回归模型4小结5 3大数据挖掘专家 sklearn库的datasets模块集成了部分数据分析的经典数据集,可以使用这些数据集进行数据预处理,建模等操作,熟悉sklearn的数据处理流程和建模流程。datasets模块常用数据集的加载函数与解释如下表所示。使用sklearn进行数据预处理会用到sklearn提供的统一接口转换器(Transformer)。加载后的数据集可以视为一个字典,几乎所有的sklearn数据集均可以使用

2、data,target,feature_names,DESCR分别获取数据集的数据,标签,特征名称和描述信息。加载datasets模块中数据集数据集加载函数数据集任务类型数据集加载函数数据集任务类型load_ boston回归load_breast_cancer分类,聚类fetch_california_housing回归load_iris分类,聚类load_digits分类load_wine分类datasets模块常用数据集加载函数及其解释 4大数据挖掘专家 在数据分析过程中,为了保证模型在实际系统中能够起到预期作用,一般需要将样本分成独立的三部分:训练集(train set):用于估计模型

3、。验证集(validation set):用于确定网络结构或者控制模型复杂程度的参数。测试集(test set):用于检验最优的模型的性能。典型的划分方式是训练集占总样本的50,而验证集和测试集各占25。将数据集划分为训练集和测试集常用划分方式 5大数据挖掘专家 当数据总量较少的时候,使用上面的方法将数据划分为三部分就不合适了。常用的方法是留少部分做测试集,然后对其余N个样本采用K折交叉验证法,基本步骤如下:将样本打乱,均匀分成K份。轮流选择其中K1份做训练,剩余的一份做验证。计算预测误差平方和,把K次的预测误差平方和的均值作为选择最优模型结构的依据。将数据集划分为训练集和测试集K折交叉验证法

4、 6大数据挖掘专家 sklearn的model_selection模块提供了train_test_split函数,能够对数据集进行拆分,其使用格式如下。sklearn.model_selection.train_test_split(*arrays,*options)将数据集划分为训练集和测试集train_test_split函数参数名称说明*arrays接收一个或多个数据集。代表需要划分的数据集,若为分类回归则分别传入数据和标签,若为聚类则传入数据。无默认。test_size接收float,int,None类型的数据。代表测试集的大小。如果传入的为float类型的数据则需要限定在0-1之间,

5、代表测试集在总数中的占比;如果传入为int类型的数据,则表示测试集记录的绝对数目。该参数与train_size可以只传入一个。在0.21版本前,若test_size和train_size均为默认则testsize为25%。train_size接收float,int,None类型的数据。代表训练集的大小。该参数与test_size可以只传入一个。random_state接收int。代表随机种子编号,相同随机种子编号产生相同的随机结果,不同的随机种子编号产生不同的随机结果。默认为None。shuffle接收boolean。代表是否进行有放回抽样。若该参数取值为True则stratify参数必须不能

6、为空。stratify接收array或者None。如果不为None,则使用传入的标签进行分层抽样。7大数据挖掘专家 train_test_split函数根据传入的数据,分别将传入的数据划分为训练集和测试集。如果传入的是1组数据,那么生成的就是这一组数据随机划分后训练集和测试集,总共2组。如果传入的是2组数据,则生成的训练集和测试集分别2组,总共4组。train_test_split是最常用的数据划分方法,在model_selection模块中还提供了其他数据集划分的函数,如PredefinedSplit,ShuffleSplit等。将数据集划分为训练集和测试集train_test_split函

7、数 8大数据挖掘专家 sklearn把相关的功能封装为转换器(transformer)。使用sklearn转换器能够实现对传入的NumPy数组进行标准化处理,归一化处理,二值化处理,PCA降维等操作。转换器主要包括三个方法:使用sklearn转换器进行数据预处理与降维sklearn转换器三个方法方法名称说明fitfit方法主要通过分析特征和目标值,提取有价值的信息,这些信息可以是统计量,也可以是权值系数等。transformtransform方法主要用来对特征进行转换。从可利用信息的角度可分为无信息转换和有信息转换。无信息转换是指不利用任何其他信息进行转换,比如指数和对数函数转换等。有信息转换

8、根据是否利用目标值向量又可分为无监督转换和有监督转换。无监督转换指只利用特征的统计信息的转换,比如标准化和PCA降维等。有监督转换指既利用了特征信息又利用了目标值信息的转换,比如通过模型选择特征和LDA降维等。fit_transformfit_transform方法就是先调用fit方法,然后调用transform方法。9大数据挖掘专家 在数据分析过程中,各类特征处理相关的操作都需要对训练集和测试集分开操作,需要将训练集的操作规则,权重系数等应用到测试集中。如果使用pandas,则应用至测试集的过程相对烦琐,使用sklearn转换器可以解决这一困扰。使用sklearn转换器进行数据预处理与降维s

9、klearn转换器 10大数据挖掘专家函数名称说明MinMaxScaler对特征进行离差标准化。StandardScaler对特征进行标准差标准化。Normalizer对特征进行归一化。Binarizer对定量特征进行二值化处理。OneHotEncoder对定性特征进行独热编码处理。FunctionTransformer对特征进行自定义函数变换。使用sklearn转换器进行数据预处理与降维sklearn部分预处理函数与其作用 11大数据挖掘专家 sklearn除了提供基本的特征变换函数外,还提供了降维算法,特征选择算法,这些算法的使用也是通过转换器的方式。使用sklearn转换器进行数据预处理

10、与降维PCA降维算法函数 12大数据挖掘专家使用sklearn转换器进行数据预处理与降维PCA降维算法函数常用参数及其作用函数名称说明n_components接收None,int,float或string。未指定时,代表所有特征均会被保留下来;如果为int,则表示将原始数据降低到n个维度;如果为float,同时svd_solver参数等于full;赋值为string,比如n_components=mle,将自动选取特征个数n,使得满足所要求的方差百分比。默认为None。copy接收bool。代表是否在运行算法时将原始数据复制一份,如果为True,则运行后,原始数据的值不会有任何改变;如果为Fa

11、lse,则运行PCA算法后,原始训练数据的值会发生改变。默认为Truewhiten接收boolean。表示白化,所谓白化,就是对降维后的数据的每个特征进行归一化,让方差都为1。默认为False。svd_solver接收string auto,full,arpack,randomized。代表使用的SVD算法。randomized一般适用于数据量大,数据维度多,同时主成分数目比例又较低的PCA降维,它使用了一些加快SVD的随机算法。full是使用SciPy库实现的传统SVD算法。arpack和randomized的适用场景类似,区别是randomized使用的是sklearn自己的SVD实现,而

12、arpack直接使用了SciPy库的sparse SVD实现。auto则代表PCA类会自动在上述三种算法中去权衡,选择一个合适的SVD算法来降维。默认为auto。13大数据挖掘专家1构建并评价聚类模型目录使用sklearn转换器处理数据2构建并评价分类模型3构建并评价回归模型4小结5 14大数据挖掘专家 聚类的输入是一组未被标记的样本,聚类根据数据自身的距离或相似度将他们划分为若干组,划分的原则是组内样本最小化而组间(外部)距离最大化,如图所示。使用sklearn估计器构建聚类模型聚类 15大数据挖掘专家算法类别包括的主要算法划分(分裂)方法K-Means算法(K-平均),K-MEDOIDS算

13、法(K-中心点)和CLARANS算法(基于选择的算法)。层次分析方法BIRCH算法(平衡迭代规约和聚类),CURE算法(代表点聚类)和CHAMELEON算法(动态模型)。基于密度的方法DBSCAN算法(基于高密度连接区域),DENCLUE算法(密度分布函数)和OPTICS算法(对象排序识别)。基于网格的方法STING算法(统计信息网络),CLIOUE算法(聚类高维空间)和WAVE-CLUSTER算法(小波变换)。使用sklearn估计器构建聚类模型聚类方法类别 16大数据挖掘专家 sklearn常用的聚类算法模块cluster提供的聚类算法及其适用范围如下所示:使用sklearn估计器构建聚类

14、模型cluster提供的聚类算法及其适用范围函数名称参数适用范围距离度量KMeans簇数可用于样本数目很大,聚类数目中等的场景。点之间的距离Spectral clustering簇数可用于样本数目中等,聚类数目较小的场景。图距离Ward hierarchical clustering簇数可用于样本数目较大,聚类数目较大的场景。点之间的距离Agglomerative clustering簇数,链接类型,距离可用于样本数目较大,聚类数目较大的场景。任意成对点线图间的距离DBSCAN半径大小,最低成员数目可用于样本数目很大,聚类数目中等的场景。最近的点之间的距离Birch分支因子,阈值,可选全局集群

15、可用于样本数目很大,聚类数目较大的场景。点之间的欧式距离 17大数据挖掘专家 聚类算法实现需要sklearn估计器(estimator)。sklearn估计器和转换器类似,拥有fit和predict两个方法。两个方法的作用如下。使用sklearn估计器构建聚类模型sklearn估计器方法名称说明fitfit方法主要用于训练算法。该方法可接收用于有监督学习的训练集及其标签两个参数,也可以接收用于无监督学习的数据。predictpredict用于预测有监督学习的测试集标签,亦可以用于划分传入数据的类别。18大数据挖掘专家 聚类完成后需要通过可视化的方式查看聚类效果,通过sklearn的manifo

16、ld模块中的TSNE函数可以实现多维数据的可视化展现。其原理是使用TSNE进行数据降维,降成两维。使用sklearn估计器构建聚类模型TSNE函数 19大数据挖掘专家 聚类评价的标准是组内的对象相互之间是相似的(相关的),而不同组中的对象是不同的(不相关的)。即组内的相似性越大,组间差别越大,聚类效果就越好。sklearn的metrics模块提供的聚类模型评价指标。评价聚类模型聚类模型评价指标方法名称真实值最佳值sklearn函数ARI评价法(兰德系数)需要1.0adjusted_rand_scoreAMI评价法(互信息)需要1.0adjusted_mutual_info_scoreV-mea

17、sure评分需要1.0completeness_scoreFMI评价法需要1.0fowlkes_mallows_score轮廓系数评价法不需要畸变程度最大silhouette_scoreCalinski-Harabasz指数评价法不需要相较最大calinski_harabaz_score 20大数据挖掘专家 上表总共列出了6种评价的方法,其中前4种方法均需要真实值的配合才能够评价聚类算法的优劣,后2种则不需要真实值的配合。但是前4种方法评价的效果更具有说服力,并且在实际运行的过程中在有真实值做参考的情况下,聚类方法的评价可以等同于分类算法的评价。除了轮廓系数以外的评价方法,在不考虑业务场景的情

18、况下都是得分越高,其效果越好,最高分值均为1。而轮廓系数则需要判断不同类别数目的情况下其轮廓系数的走势,寻找最优的聚类数目。在具备真实值作为参考的情况下,几种方法均可以很好地评估聚类模型。在没有真实值作为参考的时候,轮廓系数评价方法和Calinski-Harabasz指数评价方法可以结合使用。评价聚类模型聚类模型评价指标 21大数据挖掘专家1构建并评价聚类模型目录使用sklearn转换器处理数据2构建并评价分类模型3构建并评价回归模型4小结5 22大数据挖掘专家 在数据分析领域,分类算法有很多,其原理千差万别,有基于样本距离的最近邻算法,有基于特征信息熵的决策树,有基于bagging的随机森林

19、,有基于boosting的梯度提升分类树,但其实现的过程相差不大。过程如图所示。使用sklearn估计器构建分类模型分类算法的实现过程 23大数据挖掘专家 sklearn中提供的分类算法非常多,分别存在于不同的模块中。常用的分类算法如下表所示。使用sklearn估计器构建分类模型sklearn库常用分类算法函数模块名称函数名称算法名称linear_modelLogisticRegression逻辑斯蒂回归svmSVC支持向量机neighborsKNeighborsClassifierK最近邻分类naive_bayesGaussianNB高斯朴素贝叶斯treeDecisionTreeClassi

20、fier分类决策树ensembleRandomForestClassifier随机森林分类ensembleGradientBoostingClassifier梯度提升分类树 24大数据挖掘专家 分类模型对测试集进行预测而得出的准确率并不能很好地反映模型的性能,为了有效判断一个预测模型的性能表现,需要结合真实值,计算出精确率、召回率、F1值和Cohens Kappa系数等指标来衡量。常规分类模型的评价指标如表所示。分类模型评价方法前4种都是分值越高越好,其使用方法基本相同。sklearn的metrics模块还提供了一个能够输出分类模型评价报告的函数classfication_report。评价分

21、类模型分类模型的评价指标方法名称最佳值sklearn函数Precision(精确率)1.0metrics.precision_scoreRecall(召回率)1.0metrics.recall_scoreF1值1.0metrics.f1_scoreCohens Kappa系数1.0metrics.cohen_kappa_scoreROC曲线最靠近y轴metrics.roc_curve 25大数据挖掘专家 除了使用数值,表格形式评估分类模型的性能,还可通过绘制ROC曲线的方式来评估分类模型。ROC曲线横纵坐标范围为0,1,通常情况下ROC曲线与X轴形成的面积越大,表示模型性能越好。但是当ROC曲

22、线处于下图中蓝色虚线的位置,就表明了模型的计算结果基本都是随机得来的,在此种情况下模型起到的作用几乎为零。故在实际中ROC曲线离图中蓝色虚线越远表示模型效果越好。评价分类模型ROC曲线 26大数据挖掘专家1构建并评价聚类模型目录使用sklearn转换器处理数据2构建并评价分类模型3构建并评价回归模型4小结5 27大数据挖掘专家 从19世纪初高斯提出最小二乘估计算起,回归分析的历史已有200多年。从经典的回归分析方法到近代的回归分析方法。按照研究方法划分,回归分析研究的范围大致如图所示。回归算法的实现步骤和分类算法基本相同,分为学习和预测2个步骤。学习是通过训练样本数据来拟合回归方程;预测则是利

23、用学习过程中拟合出的回归方程,将测试数据放入方程中求出预测值。使用sklearn估计器构建回归模型回归分析方法 28大数据挖掘专家回归模型名称适用条件算法描述线性回归因变量与自变量是线性关系对一个或多个自变量和因变量之间的线性关系进行建模,可用最小二乘法求解模型系数。非线性回归因变量与自变量之间不都是线性关系对一个或多个自变量和因变量之间的非线性关系进行建模。如果非线性关系可以通过简单的函数变换转化成线性关系,用线性回归的思想求解;如果不能转化,用非线性最小二乘方法求解。Logistic回归因变量一般有1和0(是与否)两种取值是广义线性回归模型的特例,利用Logistic函数将因变量的取值范围

24、控制在0和1之间,表示取值为1的概率。岭回归参与建模的自变量之间具有多重共线性是一种改进最小二乘估计的方法。主成分回归参与建模的自变量之间具有多重共线性主成分回归是根据主成分分析的思想提出来的,是对最小二乘法的一种改进,它是参数估计的一种有偏估计。可以消除自变量之间的多重共线性。使用sklearn估计器构建回归模型常用的回归模型 29大数据挖掘专家 sklearn内部提供了不少回归算法,常用的函数如下表所示。可以利用预测结果和真实结果画出折线图作对比,以便更直观看出线性回归模型效果。使用sklearn估计器构建回归模型sklearn库常用回归算法函数模块名称函数名称算法名称linear_mod

25、elLinearRegression线性回归svmSVR支持向量回归neighborsKNeighborsRegressor最近邻回归treeDecisionTreeRegressor回归决策树ensembleRandomForestRegressor随机森林回归ensembleGradientBoostingRegressor梯度提升回归树 30大数据挖掘专家 回归模型的性能评估不同于分类模型,虽然都是对照真实值进行评估,但由于回归模型的预测结果和真实值都是连续的,所以不能够求取Precision、Recall和F1值等评价指标。回归模型拥有一套独立的评价指标。平均绝对误差、均方误差和中值绝

26、对误差的值越靠近0,模型性能越好。可解释方差值和R方值则越靠近1,模型性能越好。评价回归模型回归模型评价指标方法名称最优值sklearn函数平均绝对误差0.0metrics.mean_absolute_error均方误差0.0metrics.mean_squared_error中值绝对误差0.0metrics.median_absolute_error可解释方差值1.0metrics.explained_variance_scoreR方值1.0metrics.r2_score 31大数据挖掘专家1构建并评价聚类模型目录使用sklearn转换器处理数据2构建并评价分类模型3构建并评价回归模型4小结5 32大数据挖掘专家本章主要根据数据分析的应用分类,重点介绍了对应的数据分析建模方法及实现过程。sklearn数据分析技术的基本任务主要体现在聚类、分类和回归三类。每一类又有对应的多种评估方法,能够评价所构建模型的性能优劣。通过这一章的学习,读者基本能够掌握常用的模型构建与评估方法,可在以后的数据分析过程中采用适当的算法并按所介绍的步骤实现综合应用。小结大数据,成就未来大数据,成就未来配套的习题、实训环境、课程视频、教学大纲、教学进度表等资源:https:/edu.tipdm.org/classroom/11/introduction

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 办公、行业 > 各类PPT课件(模板)
版权提示 | 免责声明

1,本文(第6章-使用scikit-learn构建模型课件.ppt)为本站会员(晟晟文业)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!


侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|