Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Исключение гетероскедастичности с помощью ОМНК

Предположим, что выполняется требование равенства математического ожидания регрессионного остатка нулю. Тогда дисперсия регрессионных остатков равна просто ожидаемому квадрату остатка:
σ2(ε) = M(ε – M(ε))2 = M(ε2); σ2i) = M(εi2).

Предположим, что требование отсутствия автокорреляции остатков тоже выполняется. Тогда ковариационная матрица остатков (2.15) примет вид диагональной матрицы (ненулевые элементы стоят только на главной диагонали):

(2.17)

Пусть остатки гетероскедастичны, т.е. элементы на главной диагонали матрицы (2.17) не равны между собой. Применение ОМНК по формуле (2.16) с такой ковариационной матрицей сведется к тому, что в каждом i–м наблюдении все значения переменных будут поделены на одно и то же число σ2i). Такая модификация ОМНК называется взвешенным МНК.

 

Однако в реальных экономических задачах дисперсии регрессионных остатков для отдельных наблюдений неизвестны, и нет возможности построить ни матрицу (2.15), ни матрицу (2.16). Поэтому вместо этих матриц обычно используют какую-либо их оценку.

Для определения коэффициентов при использовании взвешенного МНК может быть использован следующий подход. Предположим, что дисперсии остатков σ2i) пропорциональны величине σ2(ε) (дисперсии генеральной совокупности значений случайной компоненты). Коэффициенты пропорциональности обозначим Кi, - эти коэффициенты характеризуют неоднородность дисперсии (способ их нахождения обсудим позже). Получим для каждого из n наблюдений:

(2.18)
σ2i) = σ2(ε) * Кi

В основе применения МНК к линеаризованной функции лежит соотношение (2.1) (на примере парной линейной регрессии), которое может быть представлено следующим образом: . Если в левой части этого выражения каждое слагаемое в скобках разделить на , то в результате каждое слагаемое в правой части будет скорректировано на величину Кi. Поскольку из формулы (2.19) σ2i)/Кi = σ2(ε), можно условно считать, что после такого преобразования данные будут гомоскедастичны, т.е. иметь общую дисперсию σ2(ε).

 

Итак, чтобы применить к парной линейной регрессии ОМНК в случае гетероскедастичности остатков, необходимо обе части уравнения y = ax + b разделить на для всех наблюдений:

(2.19)

Чтобы это сделать, исходные данные модели – значения xi и yi, делят на . Одновременно осуществляют замену переменных

(2.20)

Значения новых переменных γ и α представляют собой значения показателей, взвешенные на коэффициенты . В общем случае эти веса надо задать для каждого наблюдения (каждой пары γi и αi).

После такой замены уравнение регрессии примет вид

(2.21)

Полученное выражение представляет собой уравнение множественной (двухфакторной) линейной регрессии, в которой результативный признак обозначен γ, а признаки-факторы - α и β. Параметры регрессии a и b можно найти из системы нормальных уравнений (2.3). В данном случае первое уравнение в системе (2.3) следует опустить, так как свободный член регрессии (2.21) равен нулю (здесь оба параметра - a и b - представляют собой коэффициенты при переменных). Система примет вид:

(2.22)

где

Каким образом определяются коэффициенты Кi? Существуют различные подходы к их определению, и выбор любого из них неизбежно влияет на значение полученных параметров модели.

Иногда предполагают, что этими коэффициентами являются сами значения фактора. В многофакторной модели при этом одновременно встает проблема выбора одного из факторов (того, значения которого будут использованы при расчете весов). Например, можно взять последний по порядку фактор в множественной регрессии.

Следует отметить, что при этом, чем меньше значение фактора, тем на меньшую величину будет поделена величина дисперсии, т.е. весовой коэффициент будет больше. Тем самым повышаются веса дисперсий ошибок в наблюдениях с меньшими значениями. Это говорит о том, что предположение о пропорциональности между коэффициентами Кi и значениями фактора может быть вполне обосновано с экономической точки зрения: большим значениям фактора действительно может соответствовать большая дисперсия, которую необходимо умножить на меньший вес, чтобы добиться гомоскедастичности.

<== предыдущая лекция | следующая лекция ==>
Обобщенный МНК | Исключение автокорреляции в остатках с помощью ОМНК
Поделиться с друзьями:


Дата добавления: 2014-01-11; Просмотров: 418; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.05 сек.