Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Теорема Гаусса — Маркова

Состоятельность и несмещенность МНКГоценок.

Случайной ошибки регрессии.

 

В большинстве случаев генеральная дисперсия случайной ошибки — величина неизвестная, поэтому возникает необходиn мость в расчете ее несмещенной выборочной оценки.

Несмещенной оценкой дисперсии случайной ошибки линейn ного уравнения парной регрессии является величина:

 

n
i
 
 
å e 2

 

e
e
=
 
n
G 2()= S 2()= i −2, (1)

 

где n — объем выборки;

 

ei — остатки регрессионной модели:

 

 
b
b
 
i i i i
e = yy = y − 0− 1 xi.

 

Оценка дисперсии, вычисляемая по формуле (1), также назыn вается исправленной дисперсией.

В случае множественной линейной регрессии оценка дисперn сии случайной ошибки вычисляется по формуле:

 

n
 
e
 
e
=
i
 
å iS 2()= nk −1,

 

e
где k — число оцениваемых параметров модели регрессии. Оценкой матрицы ковариаций случайных ошибок ov ()буn

дет являться оценочная матрица ковариаций:

 

 
e
e
C ()= S 2()´I n, (2)

 

где I n — единичная матрица.

 
Оценка дисперсии случайной ошибки уравнения регрессии подчиняется c (хиnквадрат) закону распределения с (n — k — 1)

 

 
e
e
степенями свободы, где k — число оцениваемых параметров. Докажем несмещенность оценки дисперсии, т. е. необходимо

доказать, что E(S 2())= G 2().

 


 

 

 
e e
n
Примем без доказательства следующее выражения: E(S 2())= n −1´ G 2(),

 

 

n
 
e
e
S 2()= n −1´ S 2(),

 
e
где G 2(e) — генеральная дисперсия случайной ошибки; S2 (e) — выборочная дисперсия случайной ошибки;

æ ö
2()— выборочная оценка дисперсии случайной ошибки. Тогда:

 

n n
 
e
e
e
ç ÷
(
è ø
e
e
E S 2())=E n −1´ S 2() = n −1E(S 2())= = nnnnG 2()= G 2(),

 
что и требовалось доказать.

)
Такимобразом, S 2(e являетсянесмещеннойоценкойдля

G 2(e).

Теоретически можно предположить, что оценка любого параn метра регрессии, полученная методом наименьших квадратов, состоит из двух компонент:

1) константы, т. е. истинного значения параметра;

2) случайной ошибки Cov (x, e), вызывающей вариацию параn метра регрессии.

 
На практике такое разложение невозможно в связи с неизn вестностью истинных значений параметров уравнения регрессии и значений случайной ошибки, но в теории оно может оказаться полезным при изучении статистических свойств МНКnоценок: состоятельности, несмещенности и эффективности.

 
.
Докажем,чтозначениеМНКnоценкиb зависитотвеличины

случайной ошибки e

 
МНКnоценка параметра регрессии b рассчитывается по формуле:

 

b
=
.
Cov (x, y)1 G 2(x)

 

Ковариация между зависимой переменной y и независимой переменной x может быть представлена как:

 

b
b
e
b
b
x
Cov (x, y)= Cov (x,(0+ 1 x +))= Cov (x, 0)+ Cov (x, 1)+ Cov (x,). e

 

Дальнейшие преобразования полученного выражения провоn дятся исходя из свойств ковариации:

1) ковариация между переменной x и какойnлибо константой A равнанулю: Cov (x, A)=0, где A =const;

 

 


e
b
+.
b
= =
 

 


2) ковариация переменной x с самой собой равна дисперсии этойпеременной: Cov (x, x)= G 2(x).

 

Следовательно, на основании свойств ковариации можно заn писать, что:

 

b
b
Cov (x, 0)=0, так как 0=const;

 

b
b
b
Cov (x, 1 x)= 1´ Cov (x, x)= 1´ G 2(x).

 

Таким образом, ковариация между зависимой и независимой переменными Cov (x, y) может быть представлена в виде выражеГ ния:

 

e
 
Cov (x, y)= b G 2(x)+ Cov (x,).

 

b
e
В результате несложных преобразований МНКnоценка параn метра уравнения регрессии 1принимает вид:


b G 2(x)+ Cov (x,) Cov (x,) 1 G 2(x) 1 G 2(x)


 

(3)


 

 

 
 
 
Из формулы (3) следует, что МНКnоценка b действительно моn жет быть представлена как сумма константы b и случайной ошибки Cov (x, e), которая и вызывает вариацию данного параметn

 
ра регрессии.

 
Аналогичнодоказывается,чтоиоценкапараметрарегрессииb,

 

 
)
полученная методом наименьших квадратов, и несмещенная оценка дисперсии случайной ошибки 2(e могут быть предстаn влены как сумма постоянной составляющей (константы) и слуn чайной компоненты, которая зависит от ошибки уравнения реn грессии e.

 

<== предыдущая лекция | следующая лекция ==>
Уравнения парной регрессии | Состоятельность и несмещенность МНКйоценок
Поделиться с друзьями:


Дата добавления: 2013-12-12; Просмотров: 379; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.028 сек.