AdaBoost算法及提升树

上传人:dja****22 文档编号:243019361 上传时间:2024-09-13 格式:PPTX 页数:17 大小:206.23KB
返回 下载 相关 举报
AdaBoost算法及提升树_第1页
第1页 / 共17页
AdaBoost算法及提升树_第2页
第2页 / 共17页
AdaBoost算法及提升树_第3页
第3页 / 共17页
点击查看更多>>
资源描述
单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,2013/10/7,#,提升方法(,Boosting,),方法的思想:,改变训练样本的权重(改变训练数据的概率分布),学习多个分类器,将分类器进行线性组合,提高分类性能。,1,需要解决的问题,如何在每一轮改变训练数据的权值,如何将弱分类器组合成一个强分类器,2,AdaBoost,算法的解决方案,如何在每一轮改变训练数据的权值,提高前一轮弱分类器错误分类样本的权值,降低被正确分类样本的权值,如何将弱分类器组合成强分类器,增加分类误差率小的弱分类器的权值,使其起较大的决定作用,同时减小分类误差率大的弱分类器的权值。,3,AdaBoost,算法,4,系数,5,权值更新,当正确分类时, ,相应的权值会降低,相反相应的权值会增大,6,AdaBoost,误差分析,AdaBoost,算法最终分类器的训练误差界为,7,AdaBoost,误差分析,对于二分类问题,AdaBoost,训练误差界为,其中,8,不等式的证明,等价于证明,只需证明,采用做差、求导的方法即可证明,上式说明,,AdaBoost,的训练误差是以指数速率下降的!,AdaBoost,误差分析,9,10,前向分步算法,AdaBoost,算法中的基本分类器的线性组合为,这是一个加法模型。在给定训练数据及损失函数,L(y,f(x),条件下,学习加法模型,f(x),成为损失函数极小化问题,11,前向分步算法,但是求解这个问题非常复杂。而前向分步算法的思想是每次只学习一组参数,保证每一轮都最优,然后逐步逼近最优目标函数,即,注意前后两个公式的差别,12,前向分步算法,定理,8.3,的证明中,,8.21,、,8.22,。,13,提升树模型,以决策树为基函数的提升方法称为提升树。,二,叉分类树,二,叉决策树,14,提升树算法,仍然采用前向分步算法,不同问题的提升树学习算法,主要区别在于使用损失函数不同,比如回归树,采用平方误差损失函数,因此引入了残差。例题,8.2,。,15,例题,8.2,第二轮结果,16,例题,8.2,第六轮结果,17,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 图纸专区 > 大学资料


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!