应用回归分析整理课后习题参考答案.docx
第二章一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项£具有零均值、同方差和不序列相关性:E(Q=0i=l,2,nVar 匈=02Cov(ei £.)=0i=l,2, .,n用 ij= L2,簿假设3、随机误差项e与解释变量X之间不相关:Cov(Xp 3)二°假设4、£服从零均值、同方差、零协方差的正态分布3 N(0。)2.2 考虑过原点的线性回归模型Yi=/3iXj+si i=l,2,n误差%,n)仍满足基本假定。求四的最小二乘估计解:q =X(y- y)2 =Z(y人-P X1)2得:i=1i=1箓=_24丫黑X )X =0(XV)Ai iB =1 2)I1=12.3证明(2.27 式),Ee.=0 , EeX=0。II I证明:。二工丫一号二»(p;+b")2/八其中:y=p+px e =Y-Yi 01 i i z i新。0新。1即:£(e+ 凡一;)=。|£(冗+渥一1;)3 = 0Zei=0, 四*。24回归方程E (K) =%+4x的参数为,4的最小二乘估计与最大似然估计在什么条件下等价?给出证明。答:由于eN(0, 8 )所以 Y=B + /3X+3N (6+£X,o2)z 0 i01 il=J :大似然函数:L(p,p,02)= n f(y)=(27UQ2)-w/2exp- -L-l y(B +pp,x)2|011=1 i i2Q 2i 010/LhL(P, P,Q2) = - JnQno 2)-0 122a 21=1人1=1一件 +PP,X)2i 01 0/使得Ln (L)最大的。°, 吃就是为,儿的最大似然估计值。同时发现使得Ln (L)最大就是使得下式最小,2 = E(y-y)2=X(y-(p + p x )2i ii 01 z1 1上式恰好就是最小二乘估计的目标函数相同。值得注意的是:最大似然估计是在号阳0,。2)的假设下求得,最小二乘估计则不要求分布假设。所以在srN(0, c2)的条件下,参数j生的最小二乘估计与最大似然估计等价。25证明° °是风的无偏估计。证明:E(P ) = E(F-p X) = EXiY)=( 1 一 ¥- *)y =(1 一 ¥ X1" )中 + p x +8 )n Lin L 01 i ij=lXX1=1XX1 Y _ T1 X X-= P +Z( -*x,)£】 = B +Z(_ ¥_)£(s ) = P0 n L0 n L toi =1xxi=lxx2.6 证明 人 1 牙2_V«r(p ) = ( +)Q2 =02(1 + X2° Ax -xl w 巨证明:i1=1V«r(P ) = VarL(1 -二三)V = 2(1-艺三二2Vw(B +p X +E )on L in Lo i i i1=1XX1=1XX=Zz,(1)2 - 2X( X邑i_)2Q2 = 1 + 坐”2nnLLn Li =1xxxxxx2.7 证明平方和分解公式:SST=SSE+SSR 、证明:()(八 人/SST=Z Y- F2=X y- Y) + (Y-yp)2=2 成 y2 + 22y- YYY -Y +Zy1=11< )(1 t )1)”(=Z Y - Y2+Z Y - Y)2=SSR + SSE II Ii=12.8 验证三种检验的关系,即验证:二、 SSRI1 L P2(1) t = v'J' ; (2) F = xx 1 = 12SSE l(n-2)(J2证明:(1)人,_8;Z P r%:L Lr.LJ一 2r- 2rt Y xx YXX Y 存d2 LJSSE7(L (n-2) :SSE (n - 2) JSSE SSTJ仁77N ' xx 'xx、(2)SSR = Z Q7 y)2/=1Z=1SSRI1 仇 LF = - _J移= t2SSEl(n-2) cf2= Z(P:叫-二 Z(y+,(x-2-力二 z(p1(x-x)2= PL1 XXZ=11 (X -X-)22.9 验证(2.63)式:Var(e ) = (1- _-1)021 n L证明:var(e) = var(y -y) = var(y ) + var(y) - 2cov(y,/)lI IIII I/X/=var(y) + var(p + px)-2cov(y ) + 3 (x f )'1 (x° x%'1 x -X)2 1=O2+O2_ + i-2(J2_ + fn Ln LA / XXXX1 (X X)2=1一_一O2n LXXCov(y ,y + P(x-x) = Cov(y ,yY+ Cov(y , P(x-x)-i1 iii 1 i其中:d u5/1 ( X - r)= cov(y iz>)+(% ty)i 9 tliiiLd1i=1i=1 xx=1。2 + 3-')26=(,+ 代一期内 2n Ln LXXXXZ e2人0 2= i_ o2.10用第9题证明瓦不是o的无偏估计量证明:E(cf 2) = _JXe(jz - y)2 = XE(e2)n-2 i n-2,1 Z 01 X 1 (X -X)2O2= var(e ) = 1/一2i 2 L i=li=lxx(- 2)0 2= 0 2n -22.14为了调查某广告对销售收入的影响,某商店记录了 5个月的销售收入y (万元)和广告费用X (万元),数据见表2.6,要求用手工计算:表2.6月份12X12Y1010345345202040(1)画散点图(略)(2) X与Y是否大致呈线性关系?答:从散点图看,X与Y大致呈线性关系。(3)用最小二乘法估计求出回归方程。计算表XY(X -X)2*1(Y- Y)2I(X -X)(Y-Y)II入YI(y- r)2*I(y- y)2 II1104100206(-14) 2(-4) 221011001013(-7) 2(3) 2320000200042010027727254044004034142(-6) 2和15100和 Lxx=10Lyy=600和 Lxy=70和100SSR=490SSE=110均3人均20L70 _ *_人均20p =L = =7,8 =F-PX20-3x7=-1.1 L P人o人 1回归方哂:+pX = -1+7X01(4)求回归标准误差先求SSR (Qe)见计算表。所以第三章3.3 证明2= 53£(»-0-1)随机误差项£的方差6的无偏估计。证明:£=1 SSE =n-p-n- p-1®e)=1 p1 /=1 】E(Z e2)= £o(e) = Zo2(l/?)=02 11llZ(l-6 ) =O2(-Zh) = G2(一 pl)E(cf 2)=/=1 /=1一i一E(Ze2)= O2n- pi/=1 11/=13.4 一个回归方程的复相关系数RR.99,样本决定系数R2=0. 9801,我们能判断这个回归方程就很理想吗?答:不能断定这个回归方程理想。因为:1 .在样本容量较少,变量个数较大时,决定系数的值容易接近1,而此时可能F检验或者关于回归系数的t检验,所建立的回归方程都没能通过。2 .样本决定系数和复相关系数接近于1只能说明Y与自变量X1,X2,Xp整体上的线性关系成立,而不能判断回归方程和每个自变量是显著的,还需进行F检验和t检验。3 .在应用过程中发现,在样本容量一定的情况下,如果在模型中增加解释变量必定使得自由度减少,使得R2往往增大,因此增加解释变量(尤其是不显著的解释变量)个数引起的R2的增大与拟合好坏无关。3.7验证户=逐群J=1,2,,Pj j、yy其中:L =/ (X -X)2 JJ1J J证明:多元线性回归方程模型的一般形式为:J7=P + P X + P X + P X +£01122p p其经验回归方程式为户四恒+伊打+吁又 p=y_px_px_ _px,.0112 2p p故 y =y + P (x -x) + P (x - x ) + + P (x - x ),111222p p p 中心化后,则有 y -y= (x-r) + p (x 一x )+ + P (x x),/111222p p p左右同时除以-= k (y-y)2,1 i=1令L Z"(x -x)2,i = 1,2, ,,7 = 1,2, ,p JJ=(/J/=1y-y d(x -x) y:L(x _.)个L(x _)V大Li, = P M 1X ' 11_ p i2 _2 X A 2Z+ p -ip " X 即JL 1 JL JL 2 :L lp :L :L' yy' 11yy' 22yy' ppyy样本数据标准化的公式为,y*=X * =X -x7 =1,2, ,p IJ44.I7T' yy则上式可以记为x* =P1我p、yy