机器学习入门回归问题课件

上传人:txadgkn****dgknqu... 文档编号:242343355 上传时间:2024-08-20 格式:PPT 页数:41 大小:6.32MB
返回 下载 相关 举报
机器学习入门回归问题课件_第1页
第1页 / 共41页
机器学习入门回归问题课件_第2页
第2页 / 共41页
机器学习入门回归问题课件_第3页
第3页 / 共41页
点击查看更多>>
资源描述
机器学习入门:,回归,算法,原理及应用,机器学习入门:,1,人类学习过程,认知,模仿,实践,反馈,再认知,人类学习过程认知模仿,实践反馈再认知,2,?,机器学习,就是让计算机从大量的数据中学习到相关的规律和逻辑,然后利用学习来的规律来,进行决策,推理和识别等,。,什么是机器学习?,测试数据,发现规律,测试,结果评估,规则,邮件,X,i,Y,i,:垃圾,or,正常,发件人邮件地址异常;,标题含有“低价促销”,? 机器学习就是让计算机从大量的数据中学习到相关,3,机器学习应用实例,应用实例:,1,、对语言、文字的认知与识别,2,、对图像、场景、自然物体的认知与识别,3,、对规则的学习与掌握,例如:下雨天要带伞,生病要吃药,天冷了要穿厚衣服等,4,、对复杂事物的推理与判断能力,例如:好人与坏人的辨别能力,事物的正误的判断能力,机器学习应用实例应用实例:,4,机器学习的种类,根据学习方式的不同,可以分为监督学习,无监督学习和强化学习等几种类型。,监督学习,(有指导),无监督学习,(自学),强化学习,(自我评估),机器学习的种类 根据学习方式的不同,可以分为监督学,5,机器学习三要素,机器学习可以认为是一个在逐步发现和探索规律的过程。学习过程主要包含以三个要素:,模型表示,问题的影响因素,(,特征,),有哪些?它们之间的关系如何?,模型评估,什么样的模型是好的模型,参数优化,如何高效的找到最优参数,机器学习三要素 机器学习可以认为是一个在逐步发现和,6,”回归“的由来,英国人类学家,F.Galton,首次在,自然遗传,一书中,提出并阐明了“相关”和“相关系数”两个概念,为相关论奠定了基础。,其后,他和英国统计学家,Karl Pearson,对上千个家庭的,身高,,,臂长,,,拃长,(伸开大拇指与中指两端的最大长度)做了测量,发现了一种现象。,”回归“的由来 英国人类学家F.Galton首,7,回归问题应用场景,回归分析属于有监督学习,简单有效,应用十分广泛:,回归问题应用场景回归分析属于有监督学习,简单有效,应用十分广,8,一个简单的例子,一个简单的例子,9,回归分析,回归分析研究的主要是,因变量(目标),和,自变量(经验),之间的依存关系。按关系类型,又可分为,线性回归,分析和,非线性回归,分析。学习过程如下:,回归分析 回归分析研究的主要是因变量(目标),10,理想的拟合直线,Linear,Regression,理想的拟合直线Linear Regression,11,最小二乘算法,最小二乘算法,12,最小二乘算法,最小二乘算法,13,选择“最优回归方程”,回归方程中包含的,自变量个数越多,回归平方和就越大,残差平方和越小,预测值的置信区间也越小,。,既要选择对预测影响显著的自变量,又要使回归的,损失,很小,这样才有利于预测。,选择“最优回归方程”的方法有:,最优子选择法(,best,subset,selection,),逐步选择法(,stepwise,selection,),选择“最优回归方程” 回归方程中包含的自变量个数,14,Best,subset,selection,最优子集选择法(,best,subset,selection,),即对,n,个预测变量的所有可能组合(共有,2,n,-1,)分别进行拟合,然后选择出最优模型。,Best subset selection 最优,15,Stepwise Selection,逐步选择法按选择方式的不同,共分为三种:,前向逐步选择法(,Forward,Stepwise,S,election,),后向逐步选择法(,Backward,Stepwise,Selection,),逐步回归法(,Stepwise,Regression,),基于最优子集回归方法的一些缺陷,逐步选择的优点是限制了搜索空间,从而提高了运算效率。,Stepwise Selection 逐步选择法按选,16,Forward,Stepwise Selection,以零模型为起点,依次往模型中添加变量, 直至加完所有的变量。,但每次优先将能够最大限度地提升模型效果的变量加入模型。,但无法保证找到的模型是所有,2,n,-1,个模型中最优的,且可能在前期将后来变得多余的变量纳入模型。,模型个数:,n(n+1)/2+1,Forward Stepwise Selection,17,Backward,Stepwise,Selection,以全模型为起点,逐次迭代,每次移除一个对模型拟合结果最不利的变量。,需满足样本量,m,大于变量个数,n,(保证全模型被拟合)。而前向逐步选择即时在,mn,的情况下也可以使用,适应于高维数据。,模型个数:,n(n+1)/2+1,Backward Stepwise Selection,18,Stepwise,Regression,该方法将前向选择与后项进行了结合,试图达到最优子集选择效果的同时也保留了前向和后向逐步选择在计算上的优势。,Stepwise Regression 该方法将,19,损失函数(,l,oss,function,),损失函数,(loss function),度量预测错误的程度,常记作,L(Y,f(X),。常见的损失函数有以下几种:,0-1,损失函数(,0-1,loss,function,),:,缺点:,无法度量损失的“严重程度”,。,损失函数(loss function) 损失函数,20,损失函数(,loss,function,),平方损失函数(,quadratic,loss,function,),:,对数损失函数(,logarithmic,loss,function,),:,指数损失函数(,exp-loss,function,),:,损失函数(loss function)平方损失函数(quad,21,梯度下降算法,梯度下降法:是一种优化算法,通常也称为,最速下降,基本思想:,在下山时,如果想以最快的方式到达山底,应该沿着,山势最陡,的方向,也即,山势变化最快的方向,。,同样,如果从任意一点出发,需要最快搜索到函数的最小值,那么也应该从,函数变化最快的方向,搜索,而函数变化最快的方向就是,函数的负梯度方向,梯度下降算法 梯度下降法:是一种优化算法,通常也,22,梯度下降算法,梯度下降算法,23,损失计算方法,批量梯度下降法(,BGD,):,是梯度下降法最原始的形式,在更新每一参数时都使用所有的样本来进行更新。,随机梯度下降法(,SGD,),:它的具体思路是在更新每一参数时都使用一个样本来进行更新。,Mini-batch Gradient Descent,(,MBGD,),:它的具体思路是在更新每一参数时都使用一部分样本来进行更新,损失计算方法 批量梯度下降法(BGD):是梯度下,24,可能存在的问题,学习过程可能出现的问题:,1,)数据量过少(,m=1,):,L1,范数,:当,p=1,时,是,L1,范数,表示某个向量中所有元素的绝对值之和。,L2,范数,:当,p=2,时,是,L2,范数,表示某个向量中所有元素的平方和再开根号。,L1范数与L2范数范数:范数是衡量某个向量空间(或矩阵)中的,29,Ridge Regression,正则化项是参数的,L2,范数时,整个回归方法就叫做,岭回归,。相应,损失函数,:,那么为什么叫做“岭”回归呢?,Ridge Regression 正则化项是参数,30,Lasso,Regression,lasso,回归,:参数范数为,L1,范数,优势:不仅可以,解决过拟合,问题,而且可以在参数缩减过程中,将一些重复或不重要的参数直接缩减为零(删除),有,提取有用特征,的作用。,劣势:,计算过程复杂,,毕竟,L1,范数,不是连续可导,的。,Lasso Regressionlasso回归:参数范数为,31,L1,正则与,L2,正则,L1正则与L2正则,32,L1,正则与,L2,正则,L1正则与L2正则,33,L1,正则与,L2,正则,从贝叶斯角度来看,正则化相当于对模型参数引入了先验分布,即对模型参数加了分布约束:,L1,正则,,模型参数服从拉普拉斯分布,,只有很小的,|w|,,才能得到较大的概率,,L2,正则,,模型参数服从高斯分布,对大的,|w|,,概率较低,而在接近,0,的时候,概率变换缓慢,最终解的,w,趋于,0,附近,。,L1正则与L2正则 从贝叶斯角度来看,正则化相当,34,L1,正则与,L2,正则,对模型加入参数的正则化项后,模型会尝试,最小化,这些,权值参数,。而这个最小化就像一个下坡的过程,,L1,和,L2,的另一个差别就在于这个“,坡,”不同。,如下图:,L1,就是按,绝对值函数,的“坡”下降的,而,L2,是按,二次函数,的“坡”下降。所以实际上在,0,附近,,L1,的下降速度比,L2,的下降速度要快。,L1正则与L2正则 对模型加入参数的正则化项后,,35,另一种回归方法叫,Elastic,Net,,它同时采用了,L1,和,L2,正则,以综合,Ridge,Regression,和,Lasso,Regression,两者的优点。,既能稀疏化模型权重,又能保持岭回归的稳定性。,Elastic,Net,另一种回归方法叫Elastic Net,它同时,36,非线性模型,非线性模型,37,回归问题讨论,回归分析要有实际意义;,异常值检测。,回归问题讨论回归分析要有实际意义;,38,扩展内容,在实际应用中,问题复杂多样,不同的问题可能需要不同的方法来解决。除了以上所介绍的回归方法外,还有很多方法:比如基于生成模型的,贝叶斯回归,(,Bayesian Regression,),基于树模型的,分类回归树,(,CART,),,基于集成方法的,梯度提升树,(,GBDT,)及,XGboost,等。,扩展内容 在实际应用中,问题复杂多样,不同的问,39,T,H,A,N,K,S,THANKS,40,谢谢观看!,2020,谢谢观看!,41,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > PPT模板库


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!