第三章参数估计

上传人:suij****uang 文档编号:163010441 上传时间:2022-10-20 格式:DOCX 页数:29 大小:122.82KB
返回 下载 相关 举报
第三章参数估计_第1页
第1页 / 共29页
第三章参数估计_第2页
第2页 / 共29页
第三章参数估计_第3页
第3页 / 共29页
点击查看更多>>
资源描述
第三章 参数估计统计推断就是推断总体分布,可以用经验分布估计理论分布,且增多样本可以逼近所要求的精度,但是这需要大量样本,现实中难以实现。实际问题总是认为总体分布形式已知,而是不知其中几个参数,因此估计问题变为如何估计这几个未知参数,分成两大类:点估计和区间估计。3.1 点估计设母体X的分布函数F(x,9 )形式已知,0为待估未知参数向量,样本值为x ,x ,x,点估计就是构造一个适当的统计量0八(x ,x )作为待估未知参数 1 2 n 1 n0 的近似值,统计量简单说就是样本值的函数,但是要求不可依赖未知参量,能够反映未知参量的信息,不同的未知参量对应了不同的统计量。如何构造呢?这里经典方法是矩估计方法和最大似然估计两种办法。矩估计:子样的k阶原点矩A二1工xk ,母体的k阶原点矩m,假设k n i ki=10 = 0 ,0,,0 ,那么我们就列L个方程m = A,求解O。12lk k例子:混合高斯分布1 -f (x,) = (1 -8m (x) + 旳(x),P (x) =e 2=12zJ2no 2i给你样本值为x ,x ,x,来估计未知参数8。1 2 n解释:混合高斯分布的均值为零,二阶矩为Ex2 = (1-8)= 2 + 8=212我们只有样本,那么就用样本二阶矩代替,A = 1工x2 = Ex2,那么得出未知i=12 n i参数8 的估计值为A G 2仑=24G2 -G221最大似然估计:比如连续分布的母体概率密度函数为f (x,9 ) ,0为待估未知参数向量,样本值为x ,x ,x ,对于各样本值进行排序,总能找到x x x1 2 n 1 2 n那么发生在区间的概率px -dx x x,x - dx x x-dx x x P.px -dx x x 1 1 n n 1 1 n n f (x ,0 )dxii=1我们将上述发生概率最大的参数 0 作为真实值的估计,那么就是使得似然函数打f (x ,0 )最大即可,或者ln ii=1H f (x ,0)二瓦ln f (x ,0 ) 最大,记做iii=1i=1L(x,,x ,0) = ln f (x ,0)1nii=1为使得上述最大L(x,x ,0) = arg maxL(x,0)1 n 0我们自然采取来求解o参数向量。推论:统计量0(x,x )作为未知参数0的最大似然估计,g(0)为0的连续函数,1n那么g(o)为g(0)的最大似然估计。例子:正态母体N(uQ2),给定样本值为X=( x ,x ,x ),其均值和方差的最1 2 n大似然估计量?解:每个样本点都符合正态母体N(UQ2),那么我们构造似然函数为厂一|L(X;u,G 2)=lnH f (x ,0 )ii=1= ln1 1 工(x u)2e 2Bii=1(2兀G 2) n=一nIn、.2兀 一 Inb2一 一L(x -u)222b2 v i 7i=6L注意,这里b 2整体看出未知参数。那么亍=0得出两个方程dQ艺(x - u) = 0b 2ii=1-丄+1工(X - u)2 = 0 2 b 22(b 2)2ii =1由第一个方程解出来u =工X,代入第二个方程得出b 2 =工(x - U )2 ,可见n i n i i=1i=1最大似然估计的统计量和利用矩估计方法相同。例子:上述求导数的方法并不是通用的,比如母体为Q ,9 区间的均匀分布121f (x,9)=-,其他区间为零。那么给定样本值为X=( x ,x ,x ),求参量向9 -91 2 n21量9 =9,9的最大似然估计量?12解:我们构造似然函数为L(X;9)=1(9 -9 )21那么我们得出d In L nd9991 2 1d In L 一 nQ99 - 92 2 1,得出9 =9121才好,这个自然不对。再次看L(X;9) =1,为使得其最大,那么9 -9的(9 -9 )n2 121差越小越好,9尽量大,而9尽量小,但是应该不是相等。那么由于x ,x ,x1212 n都符合9 x 9 ,因此,1i29 max x2i i因此,9尽量大,只能最大取到minx,而9尽量小,也只能小到 max x , 自然1i2iii就取这两个极值作为估计量0 max x2ii实际应用:二战期间,盟军承认德国坦克战斗力优于己方,问题是德国到底生产了多少坦克,了解坦克 数量可以帮助盟军评估获胜几率。 为了解决该问题,盟军一开始动用了传统的情报收集方 法:间谍活动、拦截和破译轴心国通讯,审讯俘虏。根据这些手段,盟军估计,从1940年 6 月到 1942 年9 月,德国军工厂每月生产1400 辆坦克。将该数目放到真实事件中对照:轴 心国在斯大林格勒战役的8个月时间内共动用了1200辆坦克,显然每月1400辆是过高估计。 因此盟军开始寻找其它方法进行推算,他们最后找到了重要线索:序列号。盟军缴获的每辆 坦克都有一个独特的序列号,序列号显然有一个模式,代表了坦克生产订单。基于这些数据, 盟军创造了一个数学模型去判断德国的坦克生产速度,他们发现德国在1940年夏天到 1942 年秋天期间,每月生产坦克255 辆。根据战后获得的德国内部统计数字,坦克的真实生产速 度是每月 256 辆,仅仅差了一辆。这和利用出租车编号估计出租车总量问题、依据产品编号估计对方公司产量问题是一样的 这个问题并不简单,怎样给出一个好的准确的估计子,甚至战后依然是个研究课题。1:Ruggles, Richard; Brodie, Henry (March 1947), An empirical approach to economic intelligence in WWII, Journal of the American Statistical Association (American StatisticalAssociation) 42 (237): 7291 , doi:10.2307/2280189. JSTOR 22801892: Volz, Arthur G. (July 2008), A Soviet Estimate of German Tank Production , The Journal of Slavic Military Studies 21 (3): 588590, doi:10.1080/13518040802313902,3: Johnson, Roger (1994), Estimating the Size of a Population,Teaching Statistics 16 (2 (Summer): 50, doi:10.1111/j.1467-9639.1994.tb00688.x3.2 估计量的评价 对于未知参数的估计量可以构造不同的类型,那么哪个估计量最好?最好的 标准是什么?这个非常重要。3.2.1无偏性0八(x , ,x )作为未知参数0的估计量,那么给一组样本就估计一个值,给很1n多样本估计出很多值,如果Eq = 0则称为0的无偏估计量。估计值在真值0周围波动,但是其理论平均值收敛 到真值。例子:正态母体方差的最大似然估计子S 2二1工(x - X )2是无偏的吗?n n ii=1答案不是,因为ES 2 = E 1 工(x X)2nn ii=1=E 1 工 x 2 X 2n ii=1=1工 Ex 2 EX2 nii =1=1Ex 2 E丄(工x )2 n i n 2 i i =1i =1=1 工Ex2 E工x2 + 工 工xx n i n 2 ii ji =1i=1i=1 j=1(iN j)=n2Ex; nEx; n(n一 1)E2x,Ex = Ex , Ex2 = Ex 2 n 2ijij=口 E x 2 E 2 x =b 2n i i n因此发现ES 2 Hb 2 ,不是无偏估计量。n利用上述推导我们可以看到S 2* = L工(x X )2 = S 2是无偏的。nn 1in1 ni=1定义:满足limE=0的估计量为渐近无偏估计量,S 2是渐近无偏的。nn fg3.2.2有效性假如e和两个都是o的无偏估计量,如何分辨二者的好好?估计值都在真12值o周围波动,但是看谁波动的小,就是看谁方差小,如果Do Do12则称e比o有效。12那么对于任意一个无偏估计量o中,最小方差无偏估计量o满足0Do0 (a In f (X ;o) YEa 2 In f (X ;o) ao丿ao 211E证明:由正则条件1 f (X;o )dX =】,可以得出管dX = 0由于估计量o无偏的,因此我们得到E0-6二 0J (0-6) f (X ;6 )dX = 0对于上式求偏导J(0-0)苗(X;6)dX = 136J (06) f (X ;6)3 ln f 字;6)dX = 130J(0-0人了(X;0).- f (X;9) 3lnf (X;0)dX = 1利用 Cauchy-Schwarz 不等式I J f (x)g (x)dx |2 J f 2(x)dxJ g2(x)dx即函数的内积不等式,定义内积=Jf (x)g(x)dx我们得到12 -E(3 In f (X ;0 )230丿这里还缺一半证明,对于下面等式f(X;0)3lnf(X;0) _3f(X;0)3630两边积分得J f (X ;0) dX=0对于上式继续求偏导分计 dX+J f (X ;0)dX _ 036那么得到J f( X ;o)叩屮 dx+J f( X 询)fl dx = 03 ln f (X ;9)2=E3 2ln f (X ;9)39丿39 2即E由于9可能代表了向量,因此上式又叫Fisher信息阵。推论:如果(x,x )相互独立的同分布,那么1nln f (x,x ;9) = ln f (x ;9),因此1 n ii=1E(3 ln f (X ;9)2= n E3lnf (x ;9)丫i= nE3lnf (x ;9)2i39丿i=1I39丿I39丿那么n的最小方差下界又可以表示为D0 1nJ (9)nE3lnf (x ;9)2I39丿1nEd2 In f (x ;9)i39 2、亠m这里J(9)=E为 Fisher 信息阵。推论:a = g(9)函数估计量&的CR下界I 39丿3 ln f (X ;9 )丫=.口(3lnf (X;9)丫J例子:我们知道正态母体N(uQ 2)均值的最大似然估计X =丄 x和方差的i=1ni最大似然估计子S 2*二丄工(x - X)2都是无偏估计,那么它们都是达到CR下 n n 1 ii=1界的无偏估计量(MVU )吗?解:先看均值的最大似然估计X =-工x ,无偏的,EX =-工 Ex=un inii=1i=1其方差为DX=Dx =巴,那么达到CR下界了吗?计算Fisher信息量 n 2i ni=1J(u)=(也3巴Tf (x,uQ 2)dxidu(x u 1 (xu1. e 2 dx =I a 2 丿 nn 1nJ (b 2 )nS 2* = 1 工( nn 1i = 1x - X)2达不到下界,但是当n无穷大时,渐近趋向于方差下界,i又叫一致最小方差无偏估计量,就是说正态母体方差的估计量中下界虽然是这么小,但是没有估计量能够达到,因为S 2*是最小方差无偏估计量了,就是达不到n下界, CR 下界是个界限,不一定能够达到。为何说 S 2* 是最小方差无偏估计量?如何证明,这里有 MVUE 判定定理。 nMVUE判定定理:设未知参数0的任意一个无偏估计量办X),假设还有一个无偏估计0,得到一个新量L(X) = 0 -0,由于都是无偏的,那么EL(X) = 0,如 11果EL(X)0(X) = 0,那么0为最小方差无偏估计量。证明:D0 = DL(X) + 0 = DL + 2EL(X)0(X) + D0 = DL + D0 D01由于0和0的任意性,因此得出0为最小方差无偏估计量。1例子:利用上述定理证明正态母体N(uq 2)均值的最大似然估计X = 1E x和方nii=1差的最大似然估计子S 2* = 丄工(x - X)2都是最小方差无偏估计子。n n 1 ii=1证明:设还有任意一个无偏估计量X,且L(X) = XX,EL(X) = 0,即b L(XTe 盂E(xi u)2 dX = 02*G 2 丿对于上式两边对均值求偏导得到-亠另(202 -xi -u)2x为(x - u )dX = 00 2ii=1b2xn(12兀o2丿E L( X) X = E L( X) = 0爲-盂(xi-u)2dX - ue -盂 ( xi- u )2 dX = 0依据上述定理,X =丄Ex是最小方差无偏估计。(Ok ,下面不讲了,自己看看)n ii=1再次对于均值求偏导,就是二阶偏导数dE L( X) X = 0duJ L( X) X -1 (x -u)2 e 20 2 i=1ix 丄 ( x - u )dX = 0 0 2ii=1nJ L( X) X 2e -盂 ( xi-u )2 dX = 0那么可以看出这里1 (x - X)2,EL(X) = 0,即iEL(X)X 二 EL( X)X 2二 0利用上面这个结论来考虑S 2*二n n -1i=1J L( X)e -盂 ( xi- u )2 dX = 0对于上式两边对方差b 2求偏导-丿db2e -盂 ( xi-u )2 dX +J L( X)L-亠(xf. -u)21e 22 ”(x - u)2dX = 020 4ii=1注意工(x - X)2 二工(x - u)2 - n(X - u)2 , EL(X) = EL(X)X二 EL(X)X2二 0 iii=1i=1那么得到n2b 2E L( X) +12b 4EL(X)工(x - X)2 = 0ii=1n 11、-一EL(X)S2* = 0 , EL(X)S2* = 0,由定理知 S 2* =一-乙(x - X)2 都是最小 2b 4-n- 1 ii=1方差无偏估计子,只是其达不到CR下界。定义:估计量效率,已知优效估计量的方差(Qg 3)D0=E那么对任意一个估计量,其效率为D。作业:利用 matlab 画出标准正态母体方差估计子S 2* =丄工(x - X )2随着样- - -1 i i=1本容量变化,其均值和方差的渐近性质。,0 0,求a和0的最大似然估计。1xC1 :已知 f (x,a ,0) = - e 00解:似然函数为Tcl 王宁L( X) j f (x ,a ,9) = e i=iei=1ln L = - nln 9+ 晋nXT那么皿=n oda9由于f是a的单调递减函数,所以, a = min( x )id ln Ld9=0,9 X + a = 0,所以9 = X min(x )i3.3.3 相合性无偏估计量中,我们以其方差作为衡量其最优的标准,但是无偏估计量方差 不一定比有偏估计量的方差小。因此人们想从偏差性(有偏和无偏)和离散性(方 差大小)两者兼顾的方式来得到估计量,就是相合性。例子:设总体为(0,9 )上均匀分布的样本(x ,x ),我们设计两个估计量,1n八 八9 = 2 X9 = m axx()12i对于第一个估计量,我们得到44 9 29 2E9 = 2EX = 2Ex = 9,D9 = 4DX = nDx =-=-1i1n 2i n 12 3n是无偏的。对于第二个估计量,我们先求其分布F(t) = P(x t) =(Px it )n0t 9因此,我们得到概率密度为f(t)=ntn-1,t e (0,0 )0n那么均值和方差分别为E0 =n 0,D0 =n0 22n +12(n +1)2 (n + 2)可以看出0 = max(x)是有偏的,渐近无偏,但是方差效率比 2iD0 = 型比D0 =空减小的快的多,高一个量级丄。2(n +1)2 (n + 2)13nn3.2.4充分性上面CR下界只是解决了估计子最小方差下界问题,没有解决如何寻找最小 方差估计子问题,这里估计子的充分性就是说设计的未知参数0的估计量0(X) 是否充分地利用了给定样本的信息呢? 例子:比如正态母体N(u,1)给定样本值x和x,为何说X = + x好呢? X = x 1 2 2 i 1 i=1或者 x 不好呢?从方差分析可以得到优劣,从另外角度看看2在样本几何空间里,给定x和x,就是空间里一个点,其联合分布为12f(x1,x2)=e-1(片 一u)21e -1( x2 -u )22kX = 1 x = y是一个直线,这个量符合N(u,1)分布,所以其概率密度函数2 i 2f (X)=丄 e-( X 一 u )2兀那么在条件X = 1工x二y已知的基础上的条件概率密度2i-了 昱(x -u)2 -(X-u )21e 2 - i= e2 昱(x- X )2i =1i=1f (x , x I X) =丄1 2f (X)、加这个概率密度函数已经没有均值u的任何信息了,也就是说X= 1 f x已经充分2ii=1地提前了均值的信息,称为u的充分估计量。充分性定义:子样(x,x )作为从分布Xf (X ;9 )分布中提取的,估计量 1nT(x,x ),如果给定T(X) = t的条件下条件分布f (X IT(X)与未知参数0已 1n经无关了,那么估计量T(x ,x )称为0的充分估计量。1n如何寻找0 的充分估计量?Neyman-Fisher 因子定理:如果分布可以分解为f (X;0 ) = g0T(X )h(X )这里go是仅仅通过T (X)才与X有关的函数,h与参数0无关,那么估计量 0T(x ,x )称为0的充分估计量,反之,分布必可以如此分解。1n解释: 1922年, Fisher 与天文学家 Eddington 争论方差的估计子S 2* 二丄工(x - X )2与绝对偏差 d 2I x - X IYn n 一 1 i2n (-)i=i 、-=1丿谁更加精确地反映问题,提出了充分性概念。对于样本空间Rn,估计量可以表示为T = (T,T ,.,T ),我们可以找到另外一1 2 k个统计量W = (W ,W,,W ),那么在给定T = (T,T ,.,T )的集合情况下,样本1 2n -k1 2 kX与W二(W ,W,,W ) 对应。1 2n-k那么,我们可以将求得变化的Jacobi矩阵(n维的),得到(T,W)的联合概率密度为f (八 W)二 f (X)八 ge (T) h( X)八 ge (T )hi(T,W)那么给定T = (T,T ,.,T )的情况下,W的分布12kge(T)h(T ,W)h(T ,W)J_ j h (T,W)dXR n-k e 1与9无关,则T(X)为充分统计量。例子 总体X符合Poisson分布P(x,九),那么对于样本(x,x )求参数A的1n充分估计量。样本(x,x )的联合分布为1ne-AP (X, A)=A x!1e-AAxx !2e-九Axnx!nenA工 x=A ii=lx !x !1n那么我们取T(X)二-工 x,h(X)二 n ix ! x !i=11n那么P( X,九)二en An t(x )h( X)那么T(X)=-工x就是充分估计量。nii=1例子(x,x )来自正态母体N(u,G 2),其联合概率密度函数1nf (X ;UQ 2)=n -亠另(X -u)2 e 2Q 2 i=1ie 2Q 2厶 x 2 -2u 厶 x + nu 2( iii=1另*. 2 -丄(另*.)2 +丄(另 ( i n i ni=1i=1v i=1Xi )2 -2u工x + nu 2 ii=1-亠 C 2 - u I -咛e 2Q2e 2Q 2可以看出(X,S2)就是参数向量6 = (uq2)充分估计量,这里h(X)=l。nNeyman:尼曼(Neyman),著名的波蘭統計學家(數學家),出生於一個羅馬天主教的 家庭,他的家族是當地貴族的後裔。小時候待過許多不同的國家與城鎮,也因此學會了 5 種語言(波蘭語,烏克蘭語,俄語,法語及德語)。 中學時期,他隨著母親搬到卡爾可夫(俄國), 並進入當地的高中就讀。在高中取得優異的成績後進入卡爾可夫大學就讀。 剛開始他對物 理及數學都很感興趣,但很快的就發現,自己沒有作物理實驗的天份,因此專心修讀數學。在 1927 年艾根皮爾生來到巴黎,開始與尼曼合作他們的第一篇論文。在1928 年,尼曼回 到波蘭大學籌組生物統計研究室,並展開一連串與艾根皮爾生的書信往返,他們在信件中討 論許多重要的統計問題,藉由相互的提問與質疑,許多困難的問題在兩位大師的腦力激盪下 逐漸清晰可解。著名的尼曼-皮爾生定理(Neyman-Pearson lemma),就是這兩位大師的傑 作。1938 年尼曼接受了美國加州柏克萊大學的邀請,前往數學系任教,擔任機率跟統計學的教 師。當時學校內沒有統計系,僅在數學系內設立一個統計實驗室。尼曼認為為了訓練統計的 專業人才,應該將統計獨力於數學系之外,成立一個單一系所。經過多年的努力,甚至遭受 數學系的強力反對,在1955年尼曼終於成功的在柏克萊成立了統計系,成為美國傑出統計 學家重要的搖籃。尼曼除了完成許多統計理論的奠基性工作,他對於將統計應用到其他學門,像是氣象學、生 物學、社會科學等,也著有貢獻。他所提出的叢集分布(或譯成散播分佈 contagious distribution),就是生物學上用來描述物種散布情況,最常使用的分布模形之一,還有他早 年提出的一篇論文,關於分層抽樣(Stratified Sampling)與立意抽樣(purposive selection), 對於社會學或其他科學研究上使用的抽樣方法有開創性的影響。尼曼所寫的一些關於實驗設 計與統計的書籍,也大大的影響了美國食品與藥品管理局(FDA),用來檢測藥品上市的標 準流程。因子分解定理之二定理:未知参数的最大似然估计量6存在,那么必为充分估计量T(X)的函数。解释:将f (X;6) = gT(X);6h(X)作为似然函数L(X),那么QL(X询)_ dgT(X);e X)39ao(求似然函数极大,就是使得泛函gT(X);9极大,因此最大似然估计量9必为充分估计量T(X)的函数。利用充分估计量求出最大似然估计量与最小方差无偏估计量有什么关系?当数据量N fg时,最大似然估计量9渐近于真值,且方差也渐近于CR下界,所以说最大似然估计是实际上常用估计量,是渐近优效估计量。既然最大似然估计挺好,为何学习最小二乘估计?因为线性模型中最小二乘估计非常实 用,易于求解。我们后面会讲到。 3.3区间估计定义设总体X的分布函数F(x; 9)含有未知参数9,对于给定值a(0 al),若由样本(x , ,x )确定的两个统计量9和9使1n_P6 6 1 -a称区间9,9 为参数9的置信区间,一个下限,一个上限,可置信水平1-a,含义就是此区间包含真值的概率为1 -a,置信系数为a 0 例子:母体正态分布N(u,b 2),求均值的置信水平1 -a的区间,a _0.05 0解释:对于X_ + x这个无偏的最小方差估计子,我们可以将其规范化 nii_1N (0,1) ,那么1-aPz X-u Zlow g 2 /n up区间Z,Z 有很多,比如low upPJ-Z X-u Z 1 = 1 -0.05 -1.961.96长度 3.920-05/2 e 2 /n0-05/2 JPJ- Z X - U Z = 1 - 0.05-1.75 2.33 长度 4.08.4g 2 /n0-01 J两种都满足,这里Z ,Z 就是前面的上a分位,可以查表格。但是还是第一 low up种对称的区间长度小,精确度高,所以用第一种。当方差未知,则用估计量代替方差,_匕t(n -1),那么去查t分布表格。JS 2*/ n n当方差未知,方差的置信区间-_1S2*咒2(n -1),查塔方分布,由于分布不对Q 2 n称,那么区间为x 21-a/2 (n -1), x 2a/2 (n -1)两种母体的,书上有各种统计量以及如何查。还有就是单侧置信区间的,0, 和g, 0 ,两种,不外乎还是查表。注意:当取a =0.05时,如果取100个容量为n的样本,可以得到100个 置信区间,那么其中大约有95个是包含0的.所以,如果只抽取一个容 量为n的样本,得到一个具体的置信区间,就认为它包含0是不对的,有 可能不包括。但只要a很小,判断错了的可能性是很小的.区间估计有两个要素:一是其精度,二是其可靠度,分别用置信区间与置 信水平(置信度)表示. 在进行区间估计时,人们自然希望置信区间短一 些,置信度大一些. 但是在样本容量一定的情况下,二者是不可兼得的. 样本容量一定,置信度越大,置信区间越长,估计的意义也就越小. 所以, 在置信区间的定义中,限制置信度小于1 (a =0),而决不能要求达到1可以用增大样本容量的办法来缩短置信区间的长度.这正是统计方法可以 发挥作用之处。当然,在实际问题中,样本容量太大是很难办到的,所以 人们要确定合适的a和n。对确定的样本容量,在一定置信度下,置信区间长度的均值八八E(0 -0 )21越小越好.选择/2,主要是为了查表方便,而不是基于如上的考虑因为在这种情况下,求长度最短的置信区间是较复杂的事情,不便 于实际计算。标准正态分布累计概率函数(x) = fx -1 exp -t2/2dtg J 2 兀例:反问题从正态总体N(3.4, 6*6)中抽取容量为n的简单随机样本,如果要求其样本 均值位于区间(1.4,5.4)内的概率不小于0.95 (置信水平),这里a =0.05问样本 容量n至少应取多大?0.95 P(1.4 X 0.975 = 0(1.96)n (1.96)2x 9 沁 34.57例子:求来自总体的 N(20, 3)的容量分别为 10 和 15 的两个独立样本的均值 差的绝对值大于0.3的概率。(1)E(沽)=20Q(牙)二帶疋)二 20,:如二右二! E(牙-歹)二 E(牙)-E(Y) = 0D(X-Y)= 0(牙) + 0(?)二 :.X-Y - N(0, ;) = V2(T-F) N(0,1)2忑P( X-Y Q:3) = P(42(X-Y).3)=- F) -0.3s/2) + P( V2 - Y) 0.3V2)=0(-0.372) +1 -(0.3v2) = 21- O(0.3/2)=21- 0(0.424) = 21- 0.664二 0.672提问:估计量的无偏估计是指()。一个估计量的有效性是指()。 用样本估计量的值直接作为总体参数的估计值,这一估计方法称为()。 在置信水平不变的条件下,要缩小置信区间,则需要()。在其他条件不变的情况下,要使 正态母体均值的置信区间的宽度缩小一半,样本量应增加()倍。 在其他条件不变的情况下,要使估计时所需的样本量减小,则应该()
展开阅读全文
相关资源
相关搜索

最新文档


当前位置:首页 > 图纸设计 > 毕设全套


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!