决策树讲解课件

上传人:n85ho7****4h85bh 文档编号:240979707 上传时间:2024-05-22 格式:PPT 页数:21 大小:2.06MB
返回 下载 相关 举报
决策树讲解课件_第1页
第1页 / 共21页
决策树讲解课件_第2页
第2页 / 共21页
决策树讲解课件_第3页
第3页 / 共21页
点击查看更多>>
资源描述
决策树简介胡作梁胡作梁 1433275决策树简介胡作梁 1433275目录页CONTENTSPAGE1.何为决策树2.决策树的发展3.决策树分类4.决策树适用目录页CONTENTS PAGE1.何为决策树2.决策树的发Part1何为决策树何为决策树Part1Part2Part3Part44什么是决策树?通过把实例从根节点排列到某个叶子节点来分类实例;叶子节点即为实例所属的分类;树上每个节点说明了对实例的某个属性的测试,节点的每个后继分支对应于该属性的一个可能值。决策树(Decision Tree),又称为判定树,是数据挖掘技术中的一种重要的分类方法,它是一种以树结构(包括二叉树和多叉树)形式来表达的预测分析模型。什么是决策树?通过把实例从根节点排列到某个叶子节点来分类实例Part2决策树的发展决策树的发展Part1Part2Part3Part46决策树的发展决策树方法是一种比较通用的分类函数逼近法,它是一种常用于预测模型的算法,通过将大量数据有目的分类,找到一些有潜在价值的信息。决策树的起源是CLS(Concept Learning System),CLS是由Hunt、Marin和Stone为了研究人类概念模型而得来的,于1966年提出,该模型为很多决策树算法的发展奠定了很好的基础。1984年,L.Breiman等人提出了CART(Classification and Regression Tree)算法。决策树的发展决策树方法是一种比较通用的分类函数逼近法,它是一Part1Part2Part3Part47决策树的发展1986年,J.R.Quinlan提出了ID3算法。1993年,J.R.Quinlan又提出了C4.5算法,克服了ID3算法的一些不足。1996年,M.Mehta和R.Agrawal等人提出了一种高速可伸缩的有监督的寻找学习分类方法SLIQ(Supervised Learning In Quest)。同年,J.Shafer和R.Agrawal等人提出可伸缩并行归纳决策树分类方法SPRINT(Scalable PaRallelizable Induction of Decision Trees)1998年,R.Rastogi等人提出一种将建树和修剪相结合的分类算法PUBLIC(A Decision Tree that Integrates Building and Pruning)决策树的发展1986年,J.R.Quinlan提出了ID3算Part3决策树的分类决策树的分类Part1Part2Part3Part49ID3ID3算法选用最大信息增益的属性作为决策树分裂属性。在算法实际应用中,这种方法偏向于选择多值属性,但属性取但属性取值数目的多少与属性的匹配并无真数目的多少与属性的匹配并无真正关正关联。这样在使用在使用ID3算法构建算法构建时,若出,若出现各属性各属性值取取值数分布偏差大的数分布偏差大的情况,分情况,分类精度会大打折扣。精度会大打折扣。ID3算法本身并未给出处理连续数据的方法。ID3算法不能处理带有缺失值的数据集,故在进行算法挖掘之前需要对数据集中的缺失值进行预处理。ID3ID3算法选用最大信息增益的属性作为决策树分裂属性。在Part1Part2Part3Part410C4.5C4.5 算法同样是由J.R.Quinlan 提出,它在ID3 算法的基础上演变而来。C4.5 算法除了拥有前述的ID3 算法基本功能外,在其算法中还加入了连续值处理、属性空缺处理等方法。总结来说,C4.5 算法在以下几个方面做出了改进:信息增益比例计算公式如下:1)使用信息增益比例而非信息增益作为分裂标准。在上式中,称为分裂信息,它反映了属性分裂数据的延展度与平衡性,计算公式如下:C4.5C4.5 算法同样是由J.R.Quinlan 提出,Part1Part2Part3Part411C4.52)处理含有带缺失值属性的样本C4.5 算法在处理缺失数据时最常用的方法是,将这些值并入最常见的某一类中或是以最常用的值代替之。C4.5算法处理连续值属性过程3)处理连续值属性以每个数据作为阈值划分数据集,代价是否过大?C4.52)处理含有带缺失值属性的样本C4.5 算法在处理Part1Part2Part3Part412C4.54)规则的产生决策树每条根节点到叶节点的路径都对应一个分类规则,可将所有这些路径综合转换为一个规则集。规则集存储于一个二维数组中,每一行代表决策树的一个规则。交互验证是一种模型的评估方法。在训练开始之前,预留一部分数据,而在训练之后,使用这部分数据对学习的结果进行验证的方法叫做交互验证。交互验证最简单的方法是两分法,将数据集划分为两个独立子集,一个称为训练集,一个称为测试集。另一种方法是K 次折叠交互验证,将数据集划分为K 个子集,留取一个作为测试集,其余K-1 个作为训练集,最后还对数据子集的错误数计算平均值。5)交互验证(Cross Validation)从上面的改进描述可以看到,C4.5 相较ID3 有了许多提高,纵然如此,C4.5 仍然存在一定的不足之处。它在测试属性的判断和样本集分割方面仍旧存在一定的偏向性,同时C4.5 生成的决策树还称不上简洁,特别是对于数据属性及其取值较多的情况。因此,人们还在不断改进现有算法和提出新的算法。C4.54)规则的产生决策树每条根节点到叶节点的路径都对应Part1Part2Part3Part413CARE&SLIQCART(Classification And Regression Tree)算法该决策树算法模型采用的是二叉树形式,利用二分递归将数据空间不断划分为不同子集。同样的,每一个叶节点都有着与之相关的分类规则,对应了不同的数据集划分。为了减小CART 决策树的深度,在决策树某一分支节点对应数据集大多数为一类时,即将该分支设为叶节点。CART算法采用GINI系数作为属性分裂的标准。在计算机大量普及的今天,虽然内存和CPU 越来越大,越来越快,但终究会有许多数据在处理的时候无法全部放入内存计算。在众多决策树算法中,大部分算法需要在决策树生成与分类时将数据集全部放入主存,这在数据集规模较小情况下没有问题,但是一旦数据规模超出主存限制,这些算法就无能为力了。SLIQ(Supervised Learning In Quest)算法为了解决上述问题,提出了一些改进,并且它能保证分类精度不变。在SLIQ 决策树的生成过程中可以应用其他算法,其精度也与这些算法一直,不过对于大数量级的数据,SLIQ 效率大大提高,生成的模型也较为精简。除此之外,由于SLIQ 破除了主存的限制,则其对训练数据量和属性量都没有限制了。SLIQ(Supervised Learning In Quest)算法CARE&SLIQCART(ClassificationPart1Part2Part3Part414SPRINT&PUBLIC 由于SLIQ 仍存在对主存容量的限制,J.Shafter 等人提出了SPRINT(Scalable PaRallelizable INduction of decision Trees)算法,其在SLIQ 的基础上又做出了进一步的改进。该算法真正意义上破除了主存限制,使得决策树处理的数据规模达到了前所未有的境界。与此同时,并行算法的引入也使得SPRINT 算法具有更好的伸缩性。SPRINT 主要改进了SLIQ 的数据结构,合并SLIQ 中的类表与属性表,将这些数据结构均放于辅存之中。这样就使得算法在遍历属性列表寻找最优分裂时,只需使用辅存中的合并数据表。最后,SPRINT 采用的生成树策略是深度优先规则。并行算法就是用多台处理机联合求解问题的方法和步骤,其执行过程是将给定的问题首先分解成若干个尽量相互独立的子问题,然后使用多台计算机同时求解它,从而最终求得原问题的解。SPRINT 算法在上述介绍的决策树算法中,所有算法均是先通过一定的规则建立决策树,然后在进行决策树剪枝,从而达到生成最终决策树的目的。而PUBLIC(A Decision Tree that Integrates Building and Pruning)算法则是典型的预剪枝决策树算法。作为预剪枝技术生成的决策树与后剪枝决策树是一致的,PUBLIC 算法采用Gini 系数作为分裂标准,可以说是CART 算法的一种有效改进。PUBLIC 算法SPRINT&PUBLIC 由于SLIQ 仍存在对主存容Part4决策树的适用决策树的适用Part1Part2Part3Part416C5.0&CHAID1234SUGGESTION一一、C 5.0算法算法 (执行效率和内存使用改进、适用大数据集执行效率和内存使用改进、适用大数据集)1)面对数据遗漏和输入字段很多的问题时非常稳健;)面对数据遗漏和输入字段很多的问题时非常稳健;2)通常不需要很长的训练次数进行估计;)通常不需要很长的训练次数进行估计;3)比一些其他类型的模型易于理解,模型推出的规则有非常直观的解释;)比一些其他类型的模型易于理解,模型推出的规则有非常直观的解释;4)允许进行多次多于两个子组的分割。目标字段必须为分类字段。)允许进行多次多于两个子组的分割。目标字段必须为分类字段。C4.5是在是在ID3算法的基础上将连续属性离散化,算法的基础上将连续属性离散化,C5.0是在是在C4.5的基础上在内存和执行效率的基础上在内存和执行效率进行了改进。进行了改进。二二、CHAID(卡方自卡方自动交互交互检测)(可用于多元分(可用于多元分类,从,从统计角度来分裂角度来分裂变量)量)1)可产生多分枝的决策树)可产生多分枝的决策树;2)目标变量可以定距或定类)目标变量可以定距或定类;3)从统计显著性角度确定分支变量和分割值,进而优化树的分枝过程)从统计显著性角度确定分支变量和分割值,进而优化树的分枝过程;4)建立在因果关系探讨中,依据目标变量实现对输入变量众多水平划分)建立在因果关系探讨中,依据目标变量实现对输入变量众多水平划分。C5.0&CHAID1234SUGGESTION一、CPart1Part2Part3Part417三三、classification and regression tree(C&RT)(对二元分类对二元分类比较有效)比较有效)1)可自动忽略对目标变量没有贡献的属性变量,也为判断属性变量的重要性,减少)可自动忽略对目标变量没有贡献的属性变量,也为判断属性变量的重要性,减少变量数据提供参考;变量数据提供参考;2)在面对诸如存在缺失值、变量数多等问题时)在面对诸如存在缺失值、变量数多等问题时C&RT 显得非常稳健(显得非常稳健(robust););3)估计模型通常不用花费很长的训练时间;)估计模型通常不用花费很长的训练时间;4)推理过程完全依据属性变量的取值特点(与)推理过程完全依据属性变量的取值特点(与 C5.0不同,不同,C&RT的输出字段既可以是的输出字段既可以是数值型,也可以是分类型)数值型,也可以是分类型)5)比比其其他他模模型型更更易易于于理理解解从从模模型型中中得得到到的的规规则则能能得得到到非非常常直直观观的的解解释释,决决策策推推理过程可以表示成理过程可以表示成IFTHEN的形式的形式;6)目标是定类变量为分类树,若目标变量是定距变量,则为回归树;)目标是定类变量为分类树,若目标变量是定距变量,则为回归树;7)通通过过检检测测输输入入字字段段,通通过过度度量量各各个个划划分分产产生生的的异异质质性性的的减减小小程程度度,找找到到最最佳佳的的一一个划分个划分;8)非非常常灵灵活活,可可以以允允许许有有部部分分错错分分成成本本,还还可可指指定定先先验验概概率率分分布布,可可使使用用自自动动的的成成本复杂性剪枝来得到归纳性更强的树。本复杂性剪枝来得到归纳性更强的树。C&RT三、classification and regressioPart1Part2Part3Part418四、四、QUEST(quick unbiased efficient statistical tree)(也用于二分类,运算过程比(也用于二分类,运算过程比CR&T更简单有效,但不支持使用连续的输出变量)更简单有效,但不支持使用连续的输出变量)QUEST节节点点可可提提供供用用于于构构建建决决策策树树的的二二元元分分类类法法,此此方方法法的的设设计计目目的的是是减减少少大大型型 C&R 决决策策树树分分析析所所需需的的处处理理时时间间,同同时时减减小小分分类类树树方方法法中中常常见见的的偏偏向向类类别别较较多多预预测测变变量量的的趋势。预测变量字段可以是数字范围的,但目标字段必须是分类的。趋势。预测变量字段可以是数字范围的,但目标字段必须是分类的。QUEST四、QUEST(quick unbiased efficiePart1Part2Part3Part4191)决策树与其他技术相结合)决策树与其他技术相结合在数据挖掘技术中,从数据集的预处理到最终输出需要的知识,要用到很多方面的技术,所以决策树也需要与其他技术相结合,才能有创新,才能有发展。现在已经有人将决策树和模糊集合理论、遗传算法、神经网络等技术结合起来研究,都不同程度的提高了决策树的效率和精度。2)决策树分类的准确率)决策树分类的准确率决策树分类的准确率也是研究的重点,因为它是判断决策树算法优劣的标准之一,比如多变量决策树技术,它减少了决策树的规模,它的最终目的是为了提高决策树的精度。未来的发展1)决策树与其他技术相结合在数据挖掘技术中,从数据集的预处理Part1Part2Part3Part420实际中数据集往往存在大量的缺失数据、噪声数据等等。当然,最简单的方法就是直接将这样的数据删除,但是这样必然会导致分类结果不准确。目前的方法就是用出现频率最高的值替代缺失值。4)决策树算法的增量学习)决策树算法的增量学习目前很多决策树算法都不具备增量学习的功能,对于新的训练样本需要重新建树,这样会花费大量的时间,大大降低了效率。3)数据集的预处理)数据集的预处理未来的发展实际中数据集往往存在大量的缺失数据、噪声数据等等。当然,最简21谢谢21 谢谢
展开阅读全文
相关资源
相关搜索

最新文档


当前位置:首页 > 办公文档 > 教学培训


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!