Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Исключение автокорреляции в остатках с помощью ОМНК

 

Рассмотрим случай автокорреляции остатков для модели, в которой наблюдения упорядочены во времени. Будем считать, что M(ε) = 0, и остатки гомоскедастичны.

Возьмем так называемый авторегрессионный процесс первого порядка, когда каждое последующее значение случайной компоненты связано с предыдущим линейной зависимостью:

(2.23)
εt = pεt-1 + υt,

где t = 1, 2, …, n – номера последовательных наблюдений;

υt - случайная компонента построенной зависимости[4], имеющая нулевое математическое ожидание и дисперсию σ02, не подверженная автокорреляции;

p - коэффициент авторегрессии.

Так как величины и независимы, дисперсию суммы можно посчитать по следующей формуле (постоянный сомножитель выносим за скобки, возводя в квадрат, по свойству дисперсии):

(2.24)
D(εt) = p2D(εt-1) + D(υt)

Поскольку остатки гомоскедастичны, D(εt) = D(εt-1) = σ2, получим:

(2.25)
σ2 = p2σ2 + σ02

Отсюда следует, что |p| < 1 (так как величина дисперсии должна быть положительной).

Найдем ковариацию[5] двух соседних остатков, подставляя вместо εt выражение (2.23). При этом учтем, что математическое ожидание каждого из них равно нулю, и что математическое ожидание произведения независимых случайных величин εt-1 и υt, можно рассчитать, как произведение математических ожиданий:

(2.26)

Можно показать, что ковариации любой пары остатков рассчитываются по формуле:

(2.27)

Тогда ковариационная матрица (2.15) примет вид:

(2.28)

Если параметр p известен, то для нахождения параметров линейной функции регрессии можно применить ОМНК.

 

Покажем, что при этом будет устранена автокорреляция остатков. Рассмотрим множественную линейную регрессию y = a1x1 + a2x2 +
+ … + amxm + b + ε. Запишем уравнения регрессии для периодов t и (t – 1), умножив обе части последнего уравнения на p:

yt = a1x1t + a2x2t + … + amxmt + b + εt

(2.29)
pyt-1 = pa1x1 t-1 + pa2x2 t-1 + … + pamxm t-1 + pb + pεt-1

Вычтем из первого уравнения второе, преобразовав результат к следующему виду:

(2.30)
yt - pyt-1 = a1(x1t - px1 t-1) + a2(x2t – px2 t-1) + … +
+ am(xmt – pxm t-1) + b(1 – p) + εt - pεt-1

Применив формулу (2.23), получим

(2.31)
yt - pyt-1 = a1(x1t - px1 t-1) + a2(x2t – px2 t-1) + … +
+ am(xmt – pxm t-1) + b(1 – p) + υt

В новой модели (2.31) устранена автокорреляция остатков, так как новые остатки - υt - независимы.

 

Для определения неизвестного параметра авторегрессии p можно использовать различные методы оценки. Проще всего оценить его с помощью обычного МНК, применяя его к уравнению авторегрессии остатков (2.23). Способ получения оценки дисперсии регрессионных остатков σ2 будет рассмотрен позже. С помощью оценок p и σ2 можно получить оценку ковариационной матрицы (2.28) для применения ОМНК. Такой способ нахождения этой матрицы получил название доступного ОМНК.

 

 


[1] Эта формула доказывается так же, как и аналогичная формула для выборочной дисперсии (дисперсия равна разности между средним квадратом значений показателя и квадратом среднего значения:).

[2]Голдфелд (Гольдфельд) Дориан Моррис – современный американский математик. Квандт Ричард Эмерик – современный американский экономист. Вышеупомянутый тест был разработан ими в
1965 г.

[3]Дарбин Джеймс – современный английский экономист-математик. Уотсон Марк – современный американский экономист-математик.

[4] Обычно предполагается, что эта случайная величина имеет нормальное распределение.

[5] Для расчета ковариации в теории вероятностей можно использовать следующую формулу: Cov (x,y) = M(x*y) – M(x)*M(y) (рекомендуется сравнить с формулой, используемой в статистике:.

<== предыдущая лекция | следующая лекция ==>
Исключение гетероскедастичности с помощью ОМНК | Виды зависимостей для нелинейных уравнений регрессии
Поделиться с друзьями:


Дата добавления: 2014-01-11; Просмотров: 608; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.