2.1 一元线性回归模型有哪些基本假定?
答:1. 解释变量 x1,x2,?xp,是非随机变量,观测值xi1,xi2,?,xip是常数。
2. 等方差及不相关的假定条件为
i?1,2,?,n?E(?i)?0,???2,i?j? ??cov(?,?)?(i,j?1,2,?,n)?ij??0,i?j??? 这个条件称为高斯-马尔柯夫(Gauss-Markov)条件,简称G-M条件。在此条件下,便可以得到关于回归系数的最小二乘估计及误差项方差?2估计的一些重要性质,如回归系数的最小二乘估计是回归系数的最小方差线性无偏估计等。
3. 正态分布的假定条件为
??i~N(0,?2),i?1,2,?,n ? ??1,?2,?,?n相互独立在此条件下便可得到关于回归系数的最小二乘估计及?2估计的进一步结果,如它们分别是回归系数的最及?2的最小方差无偏估计等,并且可以作回归的显著性检验及区间估计。
4. 通常为了便于数学上的处理,还要求n?p,及样本容量的个数要多于解释变量的个数。
在整个回归分析中,线性回归的统计模型最为重要。一方面是因为线性回归的应用最广泛;另一方面是只有在回归模型为线性的假设下,才能的到比较深入和一般的结果;再就是有许多非线性的回归模型可以通过适当的转化变为线性回归问题进行处理。因此,线性回归模型的理论和应用是本书研究的重点。 1. 如何根据样本(xi1,xi2,?,xip;yi)(i?1,2,?,n)求出?0,?1,?2,?,?p及方差?2的估计;
2. 对回归方程及回归系数的种种假设进行检验;
3. 如何根据回归方程进行预测和控制,以及如何进行实际问题的结构分析。
2.2 考虑过原点的线性回归模型 yi??1xi??i,乘估计。
答:Q(?1)??(yi?E(yi))??(yi??1x1)2
2i?1i?1nni?1,2,?,n误差?1,?2,?,?n仍满足基本假定。求?1的最小二
nnn?Q??2?(yi??1xi)xi??2?xiyi?2?1?xi2 ??1i?1i?1i?1nn?Q?0,即?xiyi??1?xi2?0 令??1i?1i?1??解得?1?xyi?1nnii2i?xi?1???的最小二乘估计为?,即?11?xyii?1nni.
?xi?12i2.3 证明: Q (???0?,
1??y0)= ∑(--1x)2
ii因为Q (?0,?1)=min Q (?0,?1 )
?,?而Q (
01即-2∑(
y-?-?x)=0 -2∑(y-?-?x) x=0
???QR?0 ) 非负且在上可导,当Q取得最小值时,有 ?2????0?Q?0???1i01ii01ii又∵ei=i-( ?0+1xi)= i-?0-1xi ∴∑ei=0,∑eixi =0
(即残差的期望为0,残差以变量x的加权平均值为零)
2.4 解:参数β0,β1的最小二乘估计与最大似然估计在εi~N(0, 2 ) i=1,2,……n的条件下等价。 证明:因为
y???y????i~N(0,?),i?1,2,.....nYi????2
0101 所以
其最大似然函数为 1n2n2?n/22L(?0,?1,?)??i?1fi(Yi)?(2??)exp{?[Y?(????,X)]}? i010i22?i?1 nn1222Ln{L(?,?,?)}??ln(2??)?[Y?(????,X)] ?01i010i22?2i?1
X1??i~N(???X1,?)2?就是?,?的最大似然估计值。 ?,? 已知使得Ln(L)最大的?1001 即使得下式最小 :
????X))2?)??(Y?(?Q??(Yi?Yii01i211nn ①
因为①恰好就是最小二乘估计的目标函数相同。 所以,在
?i~N(0,?),i?1,2,.....n2 的条件下, 参数β0,β1的最小二
乘估计与最大似然估计等价。
??2.5.证明?0是0的无偏估计。
???? 证明:若要证明?0是0的无偏估计,则只需证明E(?0)=0。
????1?Lxy/Lxx????????y???1x 因为0,?1的最小二乘估计为?0 其中
Lxy??(xi?x)(yi?y)??xiyi?nxy??xiyi?1xi?yi?n122Lxx??(xi?x)2??xi?nx2??xi?(?xi)2n
nnxi?xxi?x1n1y?xy(?x)yi???ii??x?nLnLy??i?1i?11)=E(xxxxE(0)=E()=E[i?1]
=E[
xi?x1(?x)(?0??1xi??i)?nLi?1xxn]
nnxi?xxi?xxi?x111(?x)?(?x)?x(?x)?i???01inLnLnLxxxxxx =E(i?1)+E(i?1)+E(i?1)
n 其中
nxi?xxi?x1x11?(n?(?x)??(?x)0?00?nLxxLxxnLi?1ni?1xx==nn?(xi?1ni?x))
由于
n?(xi?x)i?1xi?x1(?x)?0??nLxx=0,所以i?1=0
nnxi?xxixi?xx1?(x?(?x)?x?(?xx)1?1i1?iLxxnLnLi?1xxxx=i?1=
?(xi?1ni?x)xi)
=
x?1(x?Lxx?(xi?1ni?x)(xi-x))=?1(x?x)=0
?yi??0??1xi??i?各?i独立同分布,其分布为N(0,?2)?又因为一元线性回归模型为
所以E(
n?i)=0所以
nnxi?xxi?xxi?x111(?x)?(?x)?x(?x)?i???01inLnLnLxxxxxxE(i?1)+E(i?1)+E(i?1
n=E(?(1?xxi?x)E(?i)0)?E(0)? ?i?1nLxx
=
?0
??所以0是?0的无偏估计。
y?1n?2.6 解:因为
n?yi?1i ①,????x0?y???1x ②,
1??nxii?1Lyxxi??n0??(1n?xxi?x联立 ①②③式,得到
L)i?1yxxi。
?nnVar(?)?Var[?(1?xxi?x)?1x2i?x)]Var(yi)i?1nLyi]i?[(?x0xx?1nLxx
2n??[1xi?x
i?1n2?(x?2xxi?x]2L)nL?xxxx
n2n因为
Lxx??i?1(xi?x),
?(i?1xi?x)?0,所以
nn?nVar(?)?[?12?(x2i?1i?x)?(?1xi?x)2022?2xii?1n?(x)LxxnL]?xx
?2???2????1?(x)??n?2??1(x)???n?22?n?? ?Lxx?????i?1(xi?x)??
2.7 证明平方和分解公式:证明: nSST=SSE+SSR
2n? SST???yi?y???[?yi?yi)?(y?i?y?]2i?1i?1 n???y?2nn
??y2i?2??yi?y?i)(y?i?y????yi?y?i)?i?1i?1i?1 n?2n ???yi?y????yi?y?2i)??SSR?SSEi?1i?1
2.8 验证三种检验的关系,即验证:
③
t?(n?2)r1?r2(1)
?2Lxx?SSR/11F???t22?SSE/(n?2)?;(2)
SSR?证明:(1)因为
?2??2Lxx和??2?SSEn-2,所以
t???Lxx?又因为
t??2?SSR(n?2)SSR(n?2)SST??SSESSESSEn?2SSTxx?L
r2?SSRSST?SSRSSE21?r??SST,所以SSTSST
(n?2)r1?r2得证。
nnnn故
(2)
????x?y)2?(y???(x?x)?y)2?(??i?y)??(?SSR??(y???1(xi?x))2???12Lxx01i1i2i?1i?1i?1i?1?2gL?SSR/1?F??12xx?t2?SSE/(n?2)?
2.9 验证(2.63)式:
?1??1- var(ei)?n-???x-x??2Lixx?????2
?var(证明:var(i) ?var(e?var(y)-2cov(y, y-y)?var(y)y)iiiiii???????var(???x)?2cov(y,y??(x-x)) y)i01ii1i22????(xi?x)??22?1?(xi?x)? 22?1 ?????????n?nLLxxxx????????
?1??1??n????x-x??2Lixx?????2