大数据挖掘与统计机器完整版课件全套ppt教学教程-最全电子讲义.pptx

上传人(卖家):三亚风情 文档编号:3428966 上传时间:2022-08-30 格式:PPTX 页数:162 大小:7.29MB
下载 相关 举报
大数据挖掘与统计机器完整版课件全套ppt教学教程-最全电子讲义.pptx_第1页
第1页 / 共162页
大数据挖掘与统计机器完整版课件全套ppt教学教程-最全电子讲义.pptx_第2页
第2页 / 共162页
大数据挖掘与统计机器完整版课件全套ppt教学教程-最全电子讲义.pptx_第3页
第3页 / 共162页
大数据挖掘与统计机器完整版课件全套ppt教学教程-最全电子讲义.pptx_第4页
第4页 / 共162页
大数据挖掘与统计机器完整版课件全套ppt教学教程-最全电子讲义.pptx_第5页
第5页 / 共162页
点击查看更多>>
资源描述

1、大数据挖掘与统计机器学习大数据挖掘与统计机器学习 吕晓玲、宋捷(2016),大数据挖掘与统计机器学习,中国人民大学出版社第一章:概述第二章:线性回归方法第三章:线性分类方法第四章:模型评价与选择第五章:决策树与组合方法第六章:神经网络与深度学习第七章:支持向量机第八章:聚类分析第九章:推荐系统第十章:大数据案例分析R、Python上机实践大数据案例分析大数据案例分析:单机及分布式实现单机及分布式实现1主要参考书主要参考书Hastie,Tibshirani,Friedman(2008),The Elements of Statistical Learning Data Mining,Infere

2、nce and Prediction,Second Edition,SpringerJames,Witten,Hastie and Tibshirani(2013),An Introduction to Statistical Learning with Applications in R,SpringerHastie,Tibshirani,and Wainwright(2015),Statistical Learning with Sparsity The Lasso and Generalizations,CRC Press23第第1 1章章 概述概述1.统计学统计学 统计学是一门科学统计

3、学是一门科学,应该是以分析数据、解决问题为导向,不断的提出新方法,并探讨其理论性质。2.2.数据智慧数据智慧 郁彬(2016),数据科学中的数据智慧,中国计算机学会通讯(中译稿)将统计学核心部分重新定义为将统计学核心部分重新定义为“数据智慧数据智慧”非常必要非常必要,因为它比“应用统计学”这个术语起到更好的概括作用。“数据智慧”是将领域知识、数学和方法论与经验、理解、常识、洞察力以及良好的判断力相结合,思辨性地理解数据并依据数据做决策的一种能力。十个基本问题十个基本问题(1)要回答的问题(2)数据收集(3)数据的含义(4)相关性(5)问题的转化(6)可比性:数据变换(7)可视化(8)随机性:数

4、据的代表性、结果的不确定性(9)稳定性:结果的可解释性、可重复性(10)结果验证4第第2 2章章 线性回归方法线性回归方法2.1 2.1 多元线性回归多元线性回归(1)多元线性回归模型及其矩阵表示(2)最小二乘估计及其性质 最小方差线性无偏估计(BLUE)(3)变量选择方法 前进法、后退法和逐步回归法 ppxxy1105 XYYXXXTT1-62.2 2.2 压缩方法压缩方法:岭回归与岭回归与LassoLasso 2.2.1 岭回归 岭回归最初提出是为了解决回归中的多重共线性问题,也就是 不满秩,不是正定矩阵的情形。这时有学者提出给 加上一个正常数矩阵kI(k0),那么 。其中,k是一个待估参

5、数,需要使用一些方法来决定。岭估计的性质:岭估计是有偏估计,但存在k0使得岭回归的均方误差小于最小二乘估计的均方误差。岭回归的系数估计值的绝对值小于最小二乘估计的绝对值。因此称岭回归为一种压缩估计。XXTXXT YXkIXXkTTridge17另一种角度看待岭回归:现代统计从损失函数加罚的角度看待岭回归,可以证明岭回归等价于在最小二乘估计的基础上对估计值的大小增加一个约束(也叫惩罚,有时也称为正则化)。注意,这里只对自变量的系数施加了约束,并没有考虑截距项 。一般可以通过数据中心化(因变量减去自身均值)消除 的作用。上式称为的岭回归估计,其中,k称为岭参数。k=0时(此时对应t=)的岭回归估计

6、 就是普通的最小二乘估计。岭参数k不是唯一确定的,所以得到的岭回归估计 实际是回归参数的一个估计族。0nipjjpjjijiridgetxy112210,minarg满足条件0 0ridge kridge8 2.2.2 Lasso Lasso回归(Tibshirani,1996)和岭回归类似(但又有着很重要的不同),是另一种压缩估计。与岭回归很重要的不同是,它在参数估计的同时既可以对估计值进行压缩,又可以让一些不重要的变量的估计值恰好为零,从而起到自动进行变量选择的功能。Lasso回归等价于在最小二乘估计的基础上对估计值的大小增加一个不同于岭回归的约束(惩罚):注意:范数的概念是线性空间中向量

7、长度概念的推广。nipjjpjjijilassotxy11210,minarg满足条件9 2.2.3 一张图看懂岭回归和Lasso回归 岭回归和Lasso回归中的参数k或称为调节参数,需要估计。实际上不同的调节参数的取值对应不同的模型。因此,可以把调节参数的估计看成模型选择问题。102.3 Lasso2.3 Lasso模型的求解与理论性质模型的求解与理论性质 2.2.3.1 解Lasso Lasso问题是一个凸优化问题,是一个平方损失加凸惩罚的优化问题。单变量Lasso目标函数:解析解:其中,11NiiiRzyNp1221minyzNS,1 xxsignxS 12Nijjkkjijjkkiki

8、xxyN12211314 2.3.3 SCAD回归与Oracle性质 Fan and Li(2001)从惩罚函数的角度出发,认为一个好的惩罚函数应使得模型中的解具有以下三个理论性质:(1)无偏性:当未知参数真值较大时,估计值应该几乎无偏。(2)稀疏性:有某个阈值准则自动将较小的估计系数降至0,以降低模型复杂度。(3)连续性:为避免模型在预测时的不稳定性,估计值应该是最小二乘估计值的某种连续函数。1516 Fan and Li(2001)证明,SCAD回归在一定条件下满足神谕性(oracle property),即SCAD估计的表现与真实模型已知时(假定已知真实模型中参数为零的系数)的表现一样好

9、,也就是说,SCAD估计能准确地进行变量选择。17182.4.2 最小一乘回归与分位回归192.4.3 其他罚函数Grouped Lasso弹性网惩罚20第第3 3章章 线性分类方法线性分类方法21 3.1.2 评价准则 混淆矩阵、准确率、召回率。2223243.2.3 正则化的Logistic回归 变量选择普通逐步回归L1正规化逻辑回归模型(Lasso-LR)25pjjniiTiTixxy1100exp1lnmin26kkf KlllkkxfxfxXkY1|Pr kkTkkpkxxxf12/12/21exp21kk27 3.3.2 二次判别函数和正则化判别函数 假设各个类别的 不相等,关于x

10、的二次项保留在公式中。我们得到的二次判别函数(quadratic discriminant analysis,QDA)为:Friedman(1989)提出一个将LDA和QDA结合的方法,假定将QDA不同类别不同的方差压缩到和LDA相同的方差。这和上一部分介绍的压缩方法相似。具体来讲,正则化的方差协方差矩阵有如下形式:式中,是LDA中假定的统一的方差;表示一系列介于LDA和QDA之间的模型,实际应用中,使用下一部分将要介绍的交叉验证等方法估计。28 kkkTkkkxxxlog21log211k 1kk1,0293031第第4 4章章 模型评价与选择模型评价与选择32模型复杂度与模型预测误差之间的

11、关系:随着模型复杂度的增加,测试误差先下降,后升高(此时模型过拟合),不论是欠拟合还是过拟合,模型推广预测的能力都差。因此存在一个中等复杂度的模型使得期望测试误差达到最小,我们的目标就是找到这个最优模型。33340200|xXxfYxErr xfY 2,0Var xf2200200 xfExfxfxf2002xfVarxfBias 0 xfE 0 xf 0 xf 0 xf 0 xf353637pC382_2nperrCp2pCpC 4.2.2 AIC准则 AIC与 近似但应用更广泛,它是基于负对数似然损失的。它的一般公式是:与 相比,上式等号右边第一项是负对数似然损失,第二项是对模型参数个数(

12、模型复杂度)的惩罚。使用AIC选择模型,我们选取AIC取值最小的那个,对于非线性或者更复杂的模型,要用衡量模型复杂度的值代替p。39 pLAIC2log2pCpC 4.2.3 BIC准则 BIC准则与AIC相似,都是用于最大化似然函数的拟合。BIC的一般公式为:式中,L是似然函数;是参数 的最大似然估计量;p是参数的个数。BIC统计量乘以1/2也叫做施瓦兹准则。可以看出BIC与AIC非常类似,只是把AIC中的2换成了 。当 时,BIC对复杂模型的惩罚更大,更倾向于选取简单的模型。使用BIC选择模型,我们选取BIC取值最小的那个模型。40 npLBICloglog2nlog4.72 en41 n

13、iiikixfyLnfCV1,1 xfk42,xfk niikixfyLnfCV1,1,xf43444546五、决策树与组合方法五、决策树与组合方法5.1.5.1.决策树决策树 5.1.1 决策树的基本知识 常用算法ID3C4.5CART 核心归纳算法47二分类示意需要说明的一些问题 1.二叉树还是多叉树 2.自变量的进一步处理 3.其他的决策树算法 4.决策树的一些问题53 5.2.4 讨论 Bagging算法在基预测器不稳定的情况下很有用,而当基预测器稳定时,Bagging算法并不有效。Bagging算法可以让好的分类器(错分率e0.5)效果更坏。对于回归问题,M的值可以取得小一些,对于分

14、类问题,尤其是当y的类别比较多的时候,M的取值应该大一些。每次进行Bootstrap抽样时,我们选择的样本量都等于原始训练集的样本量n。当提高Bootstrap抽样样本量的个数至2n后,大约有14%的样本点没有被抽中,但是Bagging算法的精度并没有提高。如果从偏差方差分解的角度理解Bagging算法,它可以提高不稳定基预测器的预测精度,实质上是减小了预测的方差(variance),但并没有降低偏差(bias)。所以通常Bagging不剪枝的决策树。57585.3.2 可加模型:从统计的角度看Adaboost 各种理论解释 偏差-方差分解 减小偏差,boosting树桩或者很小的树 提升边际

15、 博弈论 可加模型 可以证明二分类AdaBoost算法是最小化指数损失L(y,f(x)=exp(-yf(x)的分步向前可加模型 y取值+1或-1596263六、神经网络与深度学习六、神经网络与深度学习6.1.6.1.神经网络神经网络 6.1.1 人工神经元的模型 (1)生物神经元6468神经元的常用激活函数 6.1.2 人工神经网络的结构 (1)前向网络 前向网络中神经元是分层排列的,每层神经元只接收来自前一层神经元的输入信号,并将信号处理后输出至下一层,网络中没有任何回环和反馈。前向网络的层按功能可分为输入层、隐层和输出层。(2)反馈网络 反馈网络又称递归网络、回归网络,它和前向网络的区别在

16、于它至少有一个反馈环,形成封闭回路,即反馈网络中至少有一个神经元将自身的输出信号作为输入信号反馈给自身或其他神经元。6.1.3 人工神经网络的学习 (1)学习方式 有监督学习(有导师学习)无监督学习(无导师学习)强化学习(2)学习规则 误差纠正学习规则 Hebb学习规则 6.1.4 感知机 感知器神经网络是一种典型的前向神经网络,具有分层结构,信息从输入层进入网络并逐层向前传递至输出层。(1)单层感知器(2)多层感知器 由于单层感知器只能处理线性可分的数据,而现实世界中的数据大多不是线性可分的,因此相关研究者提出在单层感知器的输入层和输出层之间增加一个或多个隐层,由此构成多层感知器,也称为多层

17、前向神经网络。反向传播算法(Back Propagation Algorithm,简称BP算法):BP算法由信号的正向传播与误差的反向传播两部分组成。在正向传播过程中,信号由网络的输入层经隐层逐层传递至输出层,得到网络的实际输出。若此实际输出与期望输出不一致,则转入误差反向传播阶段。在反向传播阶段,将输出误差经由隐层向输入层反传,从而获得各层各单元的误差信号,依此信号对网络连接权值进行调整。反复执行信号的正向传播与误差的反向传播这两个过程,直至网络输出误差小于预先设定的阈值,或进行到预先设定的学习次数为止。BP网络的输入层与输出层的节点数依据所处理的任务确定后,还需确定隐层数和隐层节点数。确定

18、隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。这意味着可以先从隐层节点数少的神经网络开始训练,然后增加节点数,选取网络误差最小时对应的节点数;也可一开始加入足够多的隐层节点数,通过学习把不太起作用的隐层节点删去。756.2.6.2.深度学习深度学习 深度神经网络是指含有多个隐层的神经网络,与含有一个隐层的浅层神经网络相对应。它模仿大脑皮层的深度架构来处理数据。对含有一个隐层的浅层网络使用BP算法能获得较好效果,对深度神经网络使用BP算法进行训练存在一定的问题:梯度弥散问题 局部极值问题 数据获取问题深度学习方法:卷积神经网络(Convolutio

19、al Neural Networks,CNN)深度玻尔兹曼机(Deep Boltzmann Machine,DBM)深度信念网 栈式自编码网络(Stacked Autoencoder)766.2.26.2.2 深度信念网深度信念网 DBN最顶部两层间的连接是无向的,它们的联合分布形成一个RBM;较低的其他层构成有向的图模型。DBN可作为一个生成模型,顶层RBM与具有P()分布的实线箭头构成生成路径。DBN也可提取数据的多层次的表示进行推理与识别,具有Q()分布的虚线箭头与顶层RBM构成识别路径。当自下而上进行学习时,顶层RBM 从隐层学习;当自上而下学习时,顶层RBM作为生成模型的起始器。鉴于

20、传统的梯度下降算法针对多隐层网络训练效果不佳,Hinton 等人提出了深度信念网的贪婪逐层预训练学习方法(greedy layer-wise training),获得较好的效果。贪婪逐层预训练学习的基本思想为:每次只训练网络中的一层,以此得到网络的初始参数值。具体而言,首先训练只含一个隐层的网络,得到其初始参数值,接着训练含两个隐层的网络,随后训练含三个隐层的网络,依此类推。在训练含k个隐层的网络时,固定已经训练好的前k-1个隐层的初始参数值,将其输出作为新加入的第k个隐层的输入进行训练,得到该层的初始化参数。在对多层进行训练得到初始化参数后,对整个深度结构神经网络的参数进行微调(fine-t

21、uning),所得网络的学习性能会有很大提高。通过贪婪逐层预训练学习方法所获得的DBN参数并不是最优的,因此DBN对预训练得到的各层参数进一步微调,得到整个多层模型的参数。例如,Hinton于2006年提出使用Up-down算法(Wake-sleep算法的一个变形)继续进行无监督训练,以得到更好的生成模型。DBN中自下而上的权值用于“认知”,并获得输入数据在各隐层的表示;自上而下的权值用于“生成”,利用输入数据的潜在表示进行重构,得到近似的输入数据。Up-down算法的目的是获得数据的简洁表示,同时希望输入数据能够被准确地重构。Up-down算法分为三个阶段:第一阶段,通过使用认知权值进行随机

22、自下向上的传播,然后修改生成权值使得更好地重构下面层中的特征激活值;第二阶段,在顶层RBM中进行多次迭代采样,然后通过CD算法调整RBM的权值;第三阶段,通过生成权值进行自上向下的随机传播,然后修改认知权值使得更好地重构上面层中的特征激活值。七、支持向量机七、支持向量机 在众多分类方法中,支持向量机(Support Vector Machine,SVM)是非常重要的一种,它于20世纪90年代由Vapnik 等人提出,开始主要用于二分类,后来扩展到模式识别、多分类及回归等。支持向量机是一种典型的监督学习模型,从几何的角度来看,它的学习策略是间隔最大化,可化成一个凸二次规划的问题。从代数的角度来看

23、,支持向量机是一种损失函数加罚的模型。827.1.7.1.线性可分支持向量机线性可分支持向量机 7.1.1 简介如果两类点可以用一条直线或一个超平面分开,则称这些点是线性可分(linearly separable)模式;如果这两类点不能用一条直线或者一个超平面分开,那么这些点是线性不可分模式。线性可分支持向量机:83在现有的训练数据下,无疑同时远离两类数据点的直线是最好的。因此问题变成如何度量点到直线的距离,然后最大化这些距离的和。这就是所谓的最大间隔原则。我们所要求的最宽的隔离带实际上并不是由所有样本点决定的,而仅仅是由训练集中的三个点,即第4,8,30个观测点确定的,这三个点(当然也是向量

24、)就称为支持向量(support vector),它们刚好在隔离带的边界(margin)上。84858687888990919293八、聚类分析八、聚类分析 聚类分析属于无监督的统计学习的一种,是在没有训练目标的情况下将样本划分为若干类的方法。通过聚类分析,使得同一个类中的对象有很大的相似性,而不同类的对象有很大的相异性。聚类分析广泛用于客户细分、结构分组和行为跟踪等问题,取得了很好的效果。94959697988.1.3 K均值聚类 K-means算法的基本思想简单直观,以空间中K个点为中心进行聚类,对最靠近它们的对象进行归类。通过迭代的方法,逐次更新各聚类中心的值,直至得到最好的聚类结果。在

25、算法开始前,需要输入参数K,然后将事先输入的n个数据对象划分为K 个聚类,使得最终聚类结果具有以下性质:在同一聚类中的对象相似度较高,而不同聚类中的对象相似度较小。优点:简洁和快速。算法的关键在于初始中心的选择和距离公式。缺点:需要一个输入参数,不合适的K 值可能返回较差的结果。991001011021031041051061071081098.4.8.4.双向聚类双向聚类 之前介绍的聚类方法是根据变量的取值对观测进行聚类。本节介绍的双向聚类同时考虑观测与变量的差异。110111BIMAX的迭代算法:第一步:重排行和列,使得1集中在矩阵的右上角。第二步:将矩阵分为两个子矩阵,若一个子矩阵中只有

26、1,则返回该子矩阵。为了得到一个令人满意的结果,该方法需要从不同的起点重复几次。BIMAX尝试识别出E中只包含0的区域,可以在进一步的分析中排除这些区域。因此当E为稀疏矩阵时,BIMAX具有独特的优势。此外,BIMAX需要的存储空间和运算时间都较少。112九、推荐系统九、推荐系统 推荐系统是在信息过载时信息拥有者向它的受众进行有选择的推送的系统。9 9.1.1.基于邻居的推荐基于邻居的推荐 9 9.1.1 基于邻居的预测算法 总体来看,基于用户或者物品的推荐属于基于邻居的推荐方法。所谓邻居,是指与一个对象比较近的其他对象。所谓物以类聚、人以群分,距离比较近的对象往往具有相近的特征。113114

27、1151161171181191201219.2.9.2.潜在因子与矩阵分解算法潜在因子与矩阵分解算法 潜在因子方法是一种矩阵分解算法,又叫隐因子模型(Koren et al.,2009),本质上是一种降维方法。9.2.1 9.2.1 基于矩阵分解的推荐算法基于矩阵分解的推荐算法 已有的很多协同过滤方法或者不能处理非常大的数据集,或者处理不好用户评价非常少的情况。矩阵分解方法可以方便地随着观测数线性扩展。概率矩阵分解方法还可以加上限制,比如可以假定那些对相似物品进行评分的用户具有相似的品位。1221231241259.2.2 9.2.2 基于隐因子的概率矩阵分解推荐算法基于隐因子的概率矩阵分解

28、推荐算法 假定隐因子是一个随机变量,通常再假定服从一个已知分布,比如正态分布。最后从似然函数的角度来重新研究这个矩阵分解的结果。这就是基于隐因子的概率矩阵分解推荐算法.126127128129上机实践上机实践 第四章 4.4.1 模拟研究1 4.4.2 模拟研究2 第五章 5.5.3 Boosting方法的进一步研究 第二版新增 R Python 第十章:大数据案例 1.手机APP 2.美国航空 3.纽约自行车(第二版新增)130第第1010章、大数据案例分析章、大数据案例分析 1.智能手机用户监测数据案例分析智能手机用户监测数据案例分析(1)数据简介)数据简介 来自QM公司连续30天4万多智

29、能手机用户的监测数据 APP使用记录数据(脱敏后):表10-1 辅助数据辅助数据 app_class.csv:4000多常用APP所属类别131132(2)单机实现)单机实现 描述性分析:用户记录的有效情况133 APP使用情况预测分析 因变量:因变量:最后一周是否会使用第i类APP(分类问题)及使用强度(回归问题)自变量:自变量:前23天的使用情况134 模型:随机森林135 用户行为聚类分析 用户APP使用差异的K均值聚类 双向聚类双向聚类136 RFM聚类聚类 Recency:最近一次消费 Frequency:消费频率 Monetary:消费金额137138 推荐系统推荐系统139(3)

30、分布式实现)分布式实现 数据预处理与描述统计 基于基于Spark的模型分析的模型分析 分类、回归;聚类;推荐系统140 2.美国航空数据案例分析美国航空数据案例分析(1)数据简介)数据简介 美国境内美国境内1988-2008年各机场航班起降记录:表年各机场航班起降记录:表10-16141142 机场信息:表机场信息:表10-17;航空公司信息:表;航空公司信息:表10-18143 天气数据:表天气数据:表10-19144145(2)单机实现)单机实现 基于Mysql的数据预处理与描述分析146 洛杉矶到波士顿航线的延误分析洛杉矶到波士顿航线的延误分析147 机场聚类分析机场聚类分析148149

31、 最短路径最短路径150(3)分布式实现)分布式实现 基于基于Hive的数据预处理的数据预处理 2000-2008年全部航班的起飞延误 机场聚类 用用Spark建立分类模型建立分类模型 2000-2008年全部航班的起飞延误 随机森林151 3.美国纽约公共自行车数据案例分析美国纽约公共自行车数据案例分析(1)数据简介)数据简介 2013年7月1日至2016年8月31日共38个月(1158天)的交易流水数据152变量编号变量编号变量名变量名变量含义变量含义变量取值及说明变量取值及说明1tripduration旅行时长骑行时间,数值型,秒2starttime出发时间借 车 时 间,字 符 串,m

32、/d/Y Y Y Y HH:MM:SS3stoptime结束时间还 车 时 间,字 符 串,m/d/Y Y Y Y HH:MM:SS4start station id借车站点编号定性变量,站点唯一编号5start station name借车站点名称字符串6start station latitude借车站点纬度数值型7start station longitude借车站点经度数值型8end station id还车站点编号定性变量,站点唯一编号9end station name还车站点名称字符串10end station latitude还车站点纬度数值型11end station long

33、itude还车站点经度数值型12bikeid自行车编号定性变量,自行车唯一编号13usertype用户类型Subscriber:年度用户;Customer:24小时或7天的临时用户14birth year出生年份仅有此列存在缺失值15gender性别0:未知;1:男性;2:女性 天气数据:天气数据:153变量编号变量编号变量名变量名变量含义变量含义变量取值及说明变量取值及说明1date日期字符串,YYYY-m-d2time时间EDTEDT(Eastern Daylight Timing)指美国东部夏令时间3temperature气温单位:C4dew_point露点单位:C5humidity湿度

34、百分数6pressure海平面气压单位:百帕7visibility能见度单位:千米8wind_direction风向离散型,类别包括west、Calm等9wind_speed风速单位:千米每小时10moment_wind_speed瞬间风速单位:千米每小时11precipitation降水量单位:毫米,存在缺失值12activity活动离散型,类别包括snow等13conditions状态离散型,类别包括overcast,light snow等14WindDirDegrees风向角连续型,取值在035915DateUTC格林尼治时间YYYY/m/d HH:MM(2)单机实现)单机实现 描述统计分析与可视化展现154 节假日、周末和工作日自行车使用情况155 不同天气156 每个月份各站点自行车使用量动态气泡图1572013年7月2016年8月 网络分析、站点地图158 自行车角度的分析自行车角度的分析 1158天内共有11487辆自行车159 单个站点借车量预测分析160时间序列模型随机森林模型(3)分布式实现)分布式实现 基于基于Hive的数据预处理的数据预处理 用用Spark建立预测模型建立预测模型161谢谢!请多指正!162

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 办公、行业 > 各类PPT课件(模板)
版权提示 | 免责声明

1,本文(大数据挖掘与统计机器完整版课件全套ppt教学教程-最全电子讲义.pptx)为本站会员(三亚风情)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!


侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|