机器学习和迁移学习课件

上传人:txadgkn****dgknqu... 文档编号:241996160 上传时间:2024-08-09 格式:PPT 页数:19 大小:1.35MB
返回 下载 相关 举报
机器学习和迁移学习课件_第1页
第1页 / 共19页
机器学习和迁移学习课件_第2页
第2页 / 共19页
机器学习和迁移学习课件_第3页
第3页 / 共19页
点击查看更多>>
资源描述
,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,*,Machine Learning,制作者:黄皓璇,陈韬,2015年5月7日,Machine Learning制作者:黄皓璇2015年5月,目录,1,2,3,4,机器学习,常见算法,集成方法,迁移学习,2,目录1234机器学习常见算法集成方法迁移学习2,1.机器学习,1.1 概念简介,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。,由于机器学习是人工智能的一个核心领域,所以也有如下定义:“机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能。,3,1.机器学习1.1 概念简介3,1.机器学习,1.2 分类,(1)监督学习:从给定的训练数据集中学习出一个函数,当新的数据到来时,可以根据这个函数预测结果。监督学习的训练集要求是包括输入和输出,也可以说是特征和目标。训练集中的目标是由人标注的。常见的监督学习算法包括回归分析和统计分类。,(2)无监督学习:与监督学习相比,训练集没有人为标注的结果。常见的无监督学习算法为聚类。,(3)半监督学习:介于监督学习与无监督学习之间,如迁移学习。,(4)增强学习:通过观察来学习做成如何的动作。每个动作都会对环境有所影响,学习对象根据观察到的周围环境的反馈来做出判断。,4,1.机器学习1.2 分类(1)监督学习:从给定的训练数据集中,2.常见算法,2.1 简介,分类算法:最近邻居法、朴素贝叶斯、决策树、人工神经网络、支持向量机等。,聚类算法:K均值、DBSCAN算法、EM算法、模糊C均值、SOM(自组织映射)等。,5,2.常见算法2.1 简介5,2.常见算法,2.2 决策树(C4.5),6,2.常见算法2.2 决策树(C4.5)6,2.常见算法,2.2 决策树(C4.5),相亲决策树:,7,2.常见算法2.2 决策树(C4.5)相亲决策树:7,2.常见算法,2.3 支持向量机(SVM),8,2.常见算法2.3 支持向量机(SVM)8,2.常见算法,2.3 支持向量机(SVM),9,2.常见算法2.3 支持向量机(SVM)9,3.集成方法,3.1 概念简介,集成方法(ensemble)是机器学习领域中用来提升分类算法准确率的技术,主要包括Bagging和Boosting即装袋和提升。前面介绍的决策树、朴素贝叶斯等均属于弱分类器,通过集成方法可以将不同的弱分类器组合起来,构造强分类器。比较有代表性的集成方法有:AdaBoost、随机森林(RandomForest)等。,10,3.集成方法3.1 概念简介10,3.集成方法,3.2 AdaBoost算法,(1)在没有先验知识的情况下,初始的分布为等概分布,也就是训练集如果有n个样本,每个样本的分布概率为1/n,并设置迭代次数m。,(2)每次训练后得到一个基分类器,并根据准确率计算其权值。接着提高错误样本的分布概率,即让分类错误的样本在训练集中的权重增大,分类正确的样本权重减小,使得下一次训练的基分类器能集中力量对这些错误样本进行判断。,(3)最后通过级联m个基分类器形成一个强分类器。,11,3.集成方法3.2 AdaBoost算法(1)在没有先验知识,4.迁移学习,在传统分类学习中,为了保证训练得到的分类模型具有准确性和高可靠性,都有两个基本的假设:,(1)用于学习的训练样本与新的测试样本满足独立同分布的条件;,(2)必须有足够可利用的训练样本才能学习得到一个好的分类模型。,但是,在实际应用中我们发现,这两个条件往往无法满足。于是乎,迁移学,习应运而生。迁移学习,是一种运用已存有的知识对不同但相关领域的问题,进行求解的新的机器学习方法。,4.1 概念简介,12,4.迁移学习4.1 概念简介12,4.迁移学习,针对源领域和目标领域样本是否标注以及任务是否相同,可以把迁移学习划分为:,1、归纳迁移学习,2、直推式迁移学习,3、无监督迁移学习,而按照迁移学习方法采用的技术划分,又可以把迁移学习方法大体上分为:,1、基于特征选择的迁移学习算法研究,2、基于特征映射的迁移学习算法研究,3、基于权重的迁移学习算法研究,4.2 分类,13,4.迁移学习4.2 分类13,4.迁移学习,TrAdaBoost算法的目标就是从辅助的源数据中找出那些适合测试数据的实例,并把这些适合的实例迁移到目标领域中少量有标签样本的学习中去。该算法的关键思想是利用Boosting技术过滤掉源领域数据中那些与目标领域中少量有标签样本最不像的样本数据。,在TrAdaBoost算法中,AdaBoost被用于在目标领域里少量有标签的样本中,以保证分类模型在目标领域数据上的准确性;而Hedge()被用在源领域数据上,用于自动调节源领域数据的重要度。,4.3 TrAdaBoost算法,14,4.迁移学习4.3 TrAdaBoost算法14,4.迁移学习,4.3 TrAdaBoost算法机制,训练数据,源训练数据,辅助训,练数据,基本分类器,AdaBoost,Hedge(),15,4.迁移学习4.3 TrAdaBoost算法机制训练数据源训,4.迁移学习,4.4 TrAdaBoost算法示意图,16,4.迁移学习4.4 TrAdaBoost算法示意图16,4.迁移学习,4.5 TrAdaBoost算法描述,输入:两个训练数据集 和 (训练数据集 ),一个基本分类算法以及迭代次数N。,初始化:,1.初始化权重向量 ,各个元素均为1。,For,1.设置 满足:,2.调用基本分类器,根据合并后的训练数据 以及 上的权重分布 ,得到,一个分类器 。,3.计算 在 上的错误率:,17,4.迁移学习4.5 TrAdaBoost算法描述输入:两个训,4.迁移学习,4.5 TrAdaBoost算法描述,4.令 和,5.按如下公式更新权重向量:,输出:最终分类器,18,4.迁移学习4.5 TrAdaBoost算法描述18,谢谢聆听,19,2024/8/9,谢谢聆听192023/8/21,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > PPT模板库


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!