Twierdzenie Gaussa-Markowa

Z testwiki
Przejdź do nawigacji Przejdź do wyszukiwania

Twierdzenie Gaussa-Markowa – twierdzenie statystyki mówiące, że estymator najmniejszych kwadratów jest (o ile jest on stosowalny) najlepszym (tj. mającym najmniejszą wariancję) estymatorem spośród liniowych, nieobciążonych estymatorów liniowego modelu regresjiSzablon:Odn.

Twierdzenie

Niech dany będzie model regresji liniowej, zapisany w notacji macierzowej:

y_=Xβ_+ε_,(y_,ε_n,β_K,Xn×K),

tj.

yi=j=1KβjXij+εi(i=1,2,,n),

gdzie βj są współczynnikami modelu, Xijzmiennymi objaśniającymi natomiast εi są zmiennymi losowymi błędu (nazywanymi czasami szumem). W przypadku modelu regresji ze stałą, wprowadza się dodatkowy współczynnik βK+1 oraz odpowiadającą mu kolumnę jedynek: Xi(K+1)=1 dla wszelkich i.

Założenia twierdzenia Gaussa-Markowa:

𝖤[εi]=0 dla wszelkich i.
𝖵𝖺𝗋(εi)=σ2<,
  • szumy są parami nieskorelowane:
𝖢𝗈𝗏(εi,εj)=0,(ij).

Liniowy estymator βj jest po prostu kombinacją liniową yi:

β^j=c1jy1++cnjyn,

w której współczynniki cij nie zależą od βj, ale mogą zależeć od Xij. Z definicji, estymator β^j jest nieobciążony, gdy

𝖤[β^j]=βj.

Niech

j=1Kλjβj

będzie kombinacją liniową współczynników. Wówczas błąd średniokwadratowy odpowiadający takiemu oszacowaniu wynosi

𝖤[(j=1Kλj(β^jβj))2],

Z uwagi na to, że rozważane tu estymatory są nieobciążone, błąd średniokwadratowy jest równy wariancji rzeczonej kombinacji liniowej. Najlepszym nieobciążonym estymatorem (ang. BLUE) jest wektor β o parametrach βj, którego błąd średniokwadratowy jest najmniejszy spośród wszystkich wektorów λ będących kombinacjami liniowymi parametrów. Równoważnie, macierz

𝖵𝖺𝗋(β~)𝖵𝖺𝗋(β^)

jest nieujemnie określona dla każdego liniowego, nieobciążonego estymatora β~ (zob. uwagi o dowodzie). Estymator najmniejszych kwadratów (ang. OLS) to funkcja

β^=(XX)1Xy

zależna od y oraz X (gdzie X oznacza transpozycję macierzy X). Funkcja ta minimalizuje sumę kwadratów błędów przypadkowych, tj.

i=1n(yiy^i)2=i=1n(yij=1Kβ^jXij)2.

Twierdzenie Gaussa-Markowa orzeka, że

estymator średniokwadraowy (OLS) jest najlepszym nieobciążonym liniowym estymatorem (BLUE)Szablon:Odn.

Dowód

Niech β~=Cy będzie dowolnym liniowym etymatorem β, gdzie C=(XX)1X+D a D jest K×n niezerową macierzą. Zakładając nieobciążoność, najlepszy estymator nieobciążony to estymator o minimalnej wariancji. By zakończyć dowód należy wykazać, że wariancja β~=Cy nie jest mniejsza od wariancji β^, tj. estymatora najmniejszych kwadratów.

𝖤[β~]=𝖤[Cy]=𝖤[((XX)1X+D)(Xβ+ε)]=((XX)1X+D)Xβ+((XX)1X+D)𝖤[ε]=((XX)1X+D)Xβ𝖤[ε]=0=(XX)1XXβ+DXβ=(IK+DX)β.

Oznacza to, że estymator β~ jest nieobciążony wtedy i tylko wtedy, gdy DX=0. W tym wypadku:

𝖵𝖺𝗋(β~)=𝖵𝖺𝗋(Cy)=C𝖵𝖺𝗋(y)C=σ2CC=σ2((XX)1X+D)(X(XX)1+D)=σ2((XX)1XX(XX)1+(XX)1XD+DX(XX)1+DD)=σ2(XX)1+σ2(XX)1(DX)+σ2DX(XX)1+σ2DD=σ2(XX)1+σ2DDDX=0=𝖵𝖺𝗋(β^)+σ2DDσ2(XX)1=𝖵𝖺𝗋(β^)

Macierz DD' jest nieujemnie określona, 𝖵𝖺𝗋(β~) dominuje zatem 𝖵𝖺𝗋(β^) poprzez macierz nieujemnie określonąSzablon:Odn (zob. uwagi o dowodzie).

Uwaga o dowodzie

Powyższy dowód opiera się na równoważności warunku

𝖵𝖺𝗋(β~)𝖵𝖺𝗋(β^)0

z tym, że najlepszym (tj. mającym minimalną wariancję) estymatorem tβ jest tβ^. Zależność taka istotnie zachodzi. Niech tβ~ będzie dowolnym liniowym, nieobciążonym estymatorem tβ. Wówczas

𝖵𝖺𝗋(tβ~)=t𝖵𝖺𝗋(β~)=σ2t(XX)1+tDDt=𝖵𝖺𝗋(tβ^)+(Dt)t(Dt)σ2t(XX)1=𝖵𝖺𝗋(tβ^)=Var(tβ^)+Dt𝖵𝖺𝗋(tβ^)

W tym wypadku, równość zachodzi wtedy i tylko wtedy, gdy Dt=0. Zachodzi wówczas

tβ~=t(((XX)1X+D)Y) =t(XX)1XY+tDY=tβ^+(Dt)tY=tβ^Dt=0

Oznacza to, że równość zachodzi wtedy i tylko wtedy, gdy

tβ~=tβ^,

co implikuje jedyność estymatora najmniejszych kwadratów (OLS) jako estymatora BLUESzablon:Odn.

Przypisy

Szablon:Przypisy

Bibliografia

  • N.H. Bingham, J.M. Fry, Regression: Linear Models in Statistics, Springer Undergraduate Mathematics Series, 2010.
  • A. Sen, M. Srivastava, Regression Analysis Theory, Methods, and Applications, Springer-Verlag, New York, 1990.