高考复习ppt课件统计案例

上传人:202****8-1 文档编号:244495732 上传时间:2024-10-04 格式:PPTX 页数:45 大小:515.11KB
返回 下载 相关 举报
高考复习ppt课件统计案例_第1页
第1页 / 共45页
高考复习ppt课件统计案例_第2页
第2页 / 共45页
高考复习ppt课件统计案例_第3页
第3页 / 共45页
点击查看更多>>
资源描述
单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,高中数学课件,灿若寒星整理制作,统计案例,两个变量的关系,不相关,相关关系,函数关系,线性相关,非线性相关,现实生活中两个变量间的关系:,相关关系,:对于两个变量,当自变量取值一定时,因变量的取值带有一定随机性的两个变量之间的关系.,函数关系中的两个变量间是一种确定性关系,相关关系是一种非确定性关系,函数关系是一种理想的关系模型,相关关系在现实生活中大量存在,是更一般的情况,这种方法称为回归分析.,两个具有线性相关关系的变量的统计分析:,(1)画散点图;,(2)求回归直线方程(最小二乘法):,(3)利用回归直线方程进行预报;,回归分析,是对具有相关关系的两个变量进行统计分析的一种常用方法.,为样本点的中心,样本点:,表示有一组具体的数据估计得到的截距和斜率;,a,b,y表示真实值;,表示有真实值a,b所确定的值.,表示有估计值所确定的值.,什么是回归分析:,“回归”一词是由英国生物学家F.Galton在研究人体身高的遗传问题时首先提出的。,根据遗传学的观点,子辈的身高受父辈影响,以,X,记父辈身高,,Y,记子辈身高。虽然子辈身高一般受父辈影响,但同样身高的父亲,其子身高并不一致,因此,,X和Y之间存在一种相关关系。,虽然这种向中心回归的现象只是特定领域里的结论,并不具有普遍性,但从它所描述的关于,X,为自变量,,Y,为不确定的因变量这种变量间的关系看,和我们现在的回归含义是相同的。,不过,现代回归分析虽然沿用了“回归”一词,但内容已有很大变化,它是一种应用于许多领域的广泛的分析研究方法,在经济理论研究和实证研究中也发挥着重要作用。,一般而言,父辈身高者,其子辈身高也高,依此推论,祖祖辈辈遗传下来,身高必然向两极分化,而事实上并非如此,显然有一种力量将身高拉向中心,即子辈,的身高有向中心回归的特点。“回归”一词即源于此。,回归分析的内容与步骤:,统计检验通过后,最后是,利用回归模型,根据自变量去估计、预测因变量,。,回归分析通过一个变量或一些变量的变化解释另一变量的变化。,其主要内容和步骤是,,首先根据理论和对问题的分析判断,,将变量分为自变量和因变量,;,其次,设法,找出合适的数学方程式(即回归模型),描述变量间的关系;,由于涉及到的变量具有不确定性,接着还要,对回归模型进行统计检验,;,某大学中随机选取8名女大学生,其身高和体重数据如下表所示.,编号,1,2,3,4,5,6,7,8,身高/cm,165,165,157,170,175,165,155,170,体重/kg,48,57,50,54,64,61,43,59,求根据女大学生的身高预报体重的回归方程,并预报一名身高为172cm的女大学生的体重.,解:取身高为解释变量x,体重为预报变量y,作散点图:,样本点呈条状分布,身高和体重有较好的线性相关关系,因此可以用回归方程来近似的刻画它们之间的关系.,由,得:,故所求回归方程为:,因此,对于身高172cm的女大学生,由回归方程可以预报其体重为:,是斜率的估计值,说明身高x每增加1个单位时,体重y就增加0.849个单位,这表明体重与身高具有正的线性相关关系.,身高为172cm的女大学生的体重一定是60.316kg吗?,如果不是,你能解析一下原因吗?,答:身高为172cm的女大学生的体重不一定是60.316kg,但一般可以认为她的体重在60.316kg左右。,如何描述它们之间线性相关关系的强弱?,相关系数,相关系数的性质,(1)|r|1,(2)|r|越接近于1,相关程度越强;|r|越接近于0,相关程度越弱,注:b与r同号,问题:达到怎样程度,x、y线性相关呢?它们的相关程度怎样呢?,相关系数,正相关;负相关,通常:,r,-1,-0.75-负相关很强;,r,0.75,1,正相关很强;,r,-0.75,-0.3-负相关一般;r,0.3,0.75,正相关一般;,r,-0.25,0.25-相关性较弱;,对r进行显著性检验,相关关系的测度,(相关系数取值及其意义),-1.0,+1.0,0,-0.5,+0.5,完全负相关,无线性相关,完全正相关,负相关程度增加,r,正相关程度增加,某大学中随机选取8名女大学生,其身高和体重数据如下表所示.,编号,1,2,3,4,5,6,7,8,身高/cm,165,165,157,170,175,165,155,170,体重/kg,48,57,50,54,64,61,43,59,求根据女大学生的身高预报体重的回归方程,并预报一名身高为172cm的女大学生的体重.,故所求回归方程为:,r=0.798,表明体重与身高有很强的线性相关性,从而说明我们建立的回归模型是有意义的.,认为她的平均体重的估计值是60.316kg.,因为所有的样本点不共线,所以线性函数模型只能近似地刻画身高和体重之间的关系,即:体重不仅受身高的影响,还受其他因素的影响,,把这种影响的结果用e来表示,从而把线性函数模型修改为线性回归模型:y=bx+a+e.其中,e包含体重不能由身高的线性函数解释的所有部分.,线性回归模型,其中a和b为模型的未知参数,e是y与,之间的误差,通常,e为随机变量,,称为,随机误差,.,均值E(e)=0,方差D(e)=,2,0,线性回归模型的完整表达式为:,线性回归模型适用范围比一次函数的适用范围大得多.当随机误差e恒等于0时,线性回归模型就变成一次函数模型.即:一次函数模型是线性回归模型的特殊形式,线性回归模型是一次函数模型的一般形式.,随机误差是引起预报值与真实值y之间的误差的原因之一,其大小取决于随机误差的方差.,和为截距和斜率的估计值,它们与真实值a和b之间存在误差是引起预报值与真实值y之间的误差的另一个原因.,随机误差e的主要来源:,(1),用线性回归模型近似真实模型,(真实模型是客观存在的,但我们并不知道到底是什么),所引起的误差,.可能存在非线性的函数能更好的描述y与x之间的关系,但我们现在却用线性函数来表述这种关系,结果就产生误差,这种由于模型近似所引起的误差包含在e中.,(2),忽略了某些因素的影响.,影响变量y的因素不止变量x一个,可能还有其他因素,但通常它们每一个因素的影响可能都比较小,它们的影响都体现在e中.,(3),观测误差,.由于测量工具等原因,得到的y的观测值一般是有误差的,这样的误差也包含在e中.,以上三项误差越小,则回归模型的拟合效果越好.,函数模型与回归模型之间的差别,函数模型:,回归模型:,线性回归模型y=bx+a+e增加了随机误差项e,因变量y的值由自变量x和随机误差项e共同确定,即,自变量x只能解析部分y的变化,。,在统计中,我们也把自变量x称为解析变量,因变量y称为预报变量。,在线性回归模型中,e是用预报真实值y的误差,它是一个不可观测的量,那么该怎样研究随机误差,如何衡量预报的精度?,由于随机误差e的均值为0,故采用方差来衡量随机误差的大小.,如何刻画预报变量(体重)的变化?这个变化在多大程度上,与解析变量(身高)有关?在多大程度上与随机误差有关?,假设身高和随机误差的不同不会对体重产生任何影响,那么所有人的体重将相同。在体重不受任何变量影响的假设下,设8名女大学生的体重都是她们的平均值,即8个人的体重都为54.5kg。,54.5,54.5,54.5,54.5,54.5,54.5,54.5,54.5,体重/kg,170,155,165,175,170,157,165,165,身高/cm,8,7,6,5,4,3,2,1,编号,54.5kg,在散点图中,所有的点应该落在同一条水平直线上,但是观测到的数据并非如此。,这就意味着,预报变量(体重)的值受解析变量(身高)或随机误差的影响,。,例如,编号为6的女大学生的体重并没有落在水平直线上,她的体重为61kg。解析变量(身高)和随机误差共同把这名学生的体重从54.5kg“推”到了61kg,相差6.5kg,所以,6.5kg是解析变量和随机误差的,组合效应,。,编号为3的女大学生的体重并也没有落在水平直线上,她的体重为50kg。解析变量(身高)和随机误差共同把这名学生的体重从50kg“推”到了54.5kg,相差-4.5kg,这时解析变量和随机误差的组合效应为,-4.5kg,。,用这种方法可以对所有预报变量计算组合效应。,数学上,把每个效应(观测值减去总的平均值)的平方加起来,即用,表示总的效应,称为,总偏差平方和。,在例1中,总偏差平方和为354。,59,43,61,64,54,50,57,48,体重/kg,170,155,165,175,170,157,165,165,身高/cm,8,7,6,5,4,3,2,1,编号,那么,在这个总的效应(总偏差平方和)中,有多少来自于解析变量(身高)?有多少来自于随机误差?,假设随机误差对体重没有影响,也就是说,体重仅受身高的影响,那么散点图中所有的点将完全落在回归直线上。但是,在图中,数据点并没有完全落在回归直线上。,这些点散布在回归直线附近,所以一定是随机误差把这些点从回归直线上“推”开了,。,59,43,61,64,54,50,57,48,体重/kg,170,155,165,175,170,157,165,165,身高/cm,8,7,6,5,4,3,2,1,编号,在例1中,残差平方和约为128.361。,因此,数据点和它在回归直线上相应位置的差异是随机误差的效应,,称为,残差,。,例如,编号为6的女大学生计算随机误差的效应(残差)为:,对每名女大学生计算这个差异,然后分别将所得的值平方后加起来,用数学符号,表示为:,称为,残差平方和,,,它代表了随机误差的效应。,59,43,61,64,54,50,57,48,体重/kg,170,155,165,175,170,157,165,165,身高/cm,8,7,6,5,4,3,2,1,编号,随机误差,e的估计量,样本点:,相应的随机误差为:,随机误差的估计值为:,称为相应于点的,残差.,的估计量,为,称为,残差平方和.,残差分析,在研究两个变量间的关系时,首先要根据散点图来粗略判断它们是否是线性相关,是否可以用线性回归模型来拟合数据.然后,可以通过残差来判断模型拟合的效果,判断原始数据中是否存在可疑数据.这方面的分析工作称为残差分析.,0.382,-2.883,6.627,1.137,-4.618,2.419,2.627,-6.373,残差,59,43,61,64,54,50,57,48,体重/kg,170,155,165,175,170,157,165,165,身高/cm,8,7,6,5,4,3,2,1,编号,下表为女大学生身高和体重的原始数据以及相应的残差数据:,e,我们可以利用图形来分析残差特性,作图时纵坐标为残差,横坐标可以选为样本编号,或身高数据,或体重估计值等,这样作出的图形称为,残差图,。,表1-4列出了女大学生身高和体重的原始数据以及相应的残差数据。,在研究两个变量间的关系时,首先要根据散点图来粗略判断它们是否线性相关,,是否可以用回归模型来拟合数据。,残差分析与残差图的定义:,然后,我们可以通过残差来判断模型拟合的效果,判断原始,数据中是否存在可疑数据,,这方面的分析工作称为残差分析,。,编号,1,2,3,4,5,6,7,8,身高/cm,165,165,157,170,175,165,155,170,体重/kg,48,57,50,54,64,61,43,59,残差,-6.373,2.627,2.419,-4.618,1.137,6.627,-2.883,0.382,我们可以利用图形来分析残差特性,作图时纵坐标为残差,横坐标可以选为样本,编号,或身高数据,或体重估计值等,这样作出的图形称为,残差图,。,残差图的制作及作用。,坐标纵轴为残差变量,横轴可以有不同的选择;,若模型选择的正确,残差图中的点应该分布在以横轴为心的带形区域,;,对于远离横轴的点,要特别注意,。,身高与体重残差图,异常点,错误数据,模型问题,几点说明:,第一个样本点和第6个样本点的残差比较大,需要确认在采集过程中是否有人为的错误。如果数据采集有错误,就予以纠正,然后再重新利用线性回归模型拟合数据;如果数据采集没有错误,则需要寻找其他的原因。,另外,残差点比较均匀地落在水平的带状区域中,说明选用的模型计较合适,这样的带状区域的宽度越窄,说明模型拟合精度越高,回归方程的预报精度越高。,由于解析变量和随机误差的总效应(总偏差平方和)为354,而随机误差的效应为128.361,所以解析变量的效应为,解析变量和随机误差的总效应(总偏差平方和)=解析变量的效应(回归平方和)+随机误差的效应(残差平方和),354-128.361=225.639,这个值称为,回归平方和。,我们可以用,相关指数R,2,来刻画回归的效果,其计算公式是,我们可以用,相关指数R,2,来刻画回归的效果,其计算公式是,显然,R,2,的值越大,说明残差平方和越小,也就是说模型拟合效果越好。,在线性回归模型中,R,2,表示解析变量对预报变量变化的贡献率,。,R,2,越接近1,表示回归的效果越好(因为R,2,越接近1,表示解析变量和预报变量的线性相关性越强)。,如果某组数据可能采取几种不同回归方程进行回归分析,则可以通过比较R,2,的值来做出选择,即,选取R,2,较大的模型作为这组数据的模型,。,总的来说:,相关指数R,2,是度量模型拟合效果的一种指标。,在线性模型中,它,代表自变量刻画预报变量的能力,。,我们可以用,相关指数R,2,来刻画回归的效果,其计算公式是,1,354,总计,0.36,128.361,残差变量,0.64,225.639,随机误差,比例,平方和,来源,表1-3,从表3-1中可以看出,解析变量对总效应约贡献了64%,即R,2,0.64,可以叙述为“身高解析了64%的体重变化”,而随机误差贡献了剩余的36%。,所以,身高对体重的效应比随机误差的效应大得多。,用身高预报体重时,需要注意下列问题:,1、回归方程只适用于我们所研究的样本的总体;,2、我们所建立的回归方程一般都有时间性;,3、样本采集的范围会影响回归方程的适用范围;,4、不能期望回归方程得到的预报值就是预报变量的精确值。,事实上,它是预报变量的可能取值的平均值。,这些问题也使用于其他问题。,涉及到统计的一些思想:,模型适用的总体;,模型的时间性;,样本的取值范围对模型的影响;,模型预报结果的正确理解。,建立回归模型的基本步骤:,(1)确定研究对象,明确哪个变量是解释变量,哪个变量是预报变量;,(2)画出确定好的解释变量和预报变量的散点图,观察它们之间的关系(是否存在线性关系);,(3)由经验确定回归方程的类型(如观察到数据呈线性关系,则选用线性回归方程y=bx+a);,(4)按一定规则估计回归方程中的参数(如最小二乘法);,(5)得出结果后分析残差图是否异常(个别数据对应残差过大,或残差呈现不随机的规律性等),若存在异常,则检查数据是否有误,或模型是否合适等.,一只红铃虫的产卵数y和温度x有关,现收集了7组观测数据列于下表,试建立y与x之间的回归方程.,325,115,66,24,21,11,7,产卵数y/个,35,32,29,27,25,23,21,温度x/,0,C,解:收集数据作散点图:,在散点图中,样本点没有分布在某个带状区域内,因此两个变量不呈现线性相关关系,所以不能直接利用线性回归方程来建立两个变量之间的关系.,根据已有的函数知识,可以发现样本点分布在某一条指数函数曲线的周围,其中c,1,和c,2,是待定参数.,令z=lny,则变换后样本点应该分布在直线z=bx+a(a=lnc,1,,b=c,2,)的周围.,利用线性回归模型建立y和x之间的非线性回归方程.,当回归方程不是形如y=bx+a时,我们称之为,非线性回归方程.,5.784,4.745,4.190,3.178,3.045,2.398,1.946,z,35,32,29,27,25,23,21,X,所得线性回归方程为:,a=lnc,1,,b=c,2,所以红铃虫的产卵数对温度的非线性回归方程为:,若看成样本点集中在某二次曲线y=c,3,x,2,+c,4,的附近.,作变换t=x,2,,建立y与t之间的线性回归方程:y=c,3,t+c,4,.,325,115,66,24,21,11,7,y,1225,1024,841,729,625,529,441,t,y关于x的二次回归方程为:,利用残差计算公式:,77.968,-58.265,-40.104,-41.000,-5.832,19.400,47.696,34.675,-13.381,9.230,-8.950,1.875,-0.101,0.557,325,115,66,24,21,11,7,Y,35,32,29,27,25,23,21,X,由残差平方和:,故指数函数模型的拟合效果比二次函数的模拟效果好.,或由条件R,2,分别为0.98和0.80,同样可得它们的效果.,给定样本点:,两个含有未知参数(a、b为未知参数)的模型:,如何比较它们的拟合效果:,(1)分别建立对应于两个模型的回归方程,分别是参数a和b的估计值.,(2)分别计算两个回归方程的残差平方和,(3)若,则的拟合效果好;,反之,的拟合效果好.,什么是回归分析?,(内容),从一组样本数据出发,确定变量之间的数学关系式,对这些关系式的可信程度进行各种统计检验,并从影响某一特定变量的诸多变量中找出哪些变量的影响显著,哪些不显著,利用所求的关系式,根据一个或几个变量的取值来预测或控制另一个特定变量的取值,并给出这种预测或控制的精确程度,回归分析与相关分析的区别,相关分析中,变量,x,变量,y,处于平等的地位;回归分析中,变量,y,称为因变量,处在被解释的地位,,x,称为自变量,用于预测因变量的变化,相关分析中所涉及的变量,x,和,y,都是随机变量;回归分析中,因变量,y,是随机变量,自变量,x,可以是随机变量,也可以是非随机的确定变量,相关分析主要是描述两个变量之间线性关系的密切程度;回归分析不仅可以揭示变量,x,对变量,y,的影响大小,还可以由回归方程进行预测和控制,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 教学培训


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!