Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Проблема спецификации переменных. Мультиколлинеарность

Прогнозирование по разностной авторегрессионной модели.

Оценка коэффициентов регрессии.

 

В структуру разностной авторегрессии – регрессии оцениваемые коэффициенты модели входят линейным образом, поэтому применим классический метод наименьших квадратов:

 

(4.12)

 

- вектор наблюдений зависимой переменной.

 

 

Прогнозирование осуществляется как в обычном линейном уравнении регрессии. После получения точечного и интервального прогноза следует вернуться от разностей к зависимой переменной Yt по формулам связи разностей с Yt. Например, для разностей первого порядка получим соотношение:

 

(4.13)

 

 


Глава IV. Некоторые вопросы практического построения регрессионных моделей

 

Мультиколлениарность – это линейная взаимосвязь двух любых регрессоров Xj и Xk, (j, k = ), что является нарушением 7 предпосылки метода наименьших квадратов.

Здесь может быть два случая:

а) Два любых фактора имеют между собой линейную функциональную (детерминированную) связь

 

xj =a+ bx k; (5.1)

 

В этом случае соответствующий вектор столбцы базе данных xij, () и xi k, () оказываются строго линейно – зависимыми и определитель матрицы нормальных уравнений равен нулю:

 

(5.2)

 

Значит матрица необратима и оценить параметры уравнения регрессии по методу наименьших квадратов невозможно.

б) Линейная связь (5.1) стохастическая (скрытная). Однако она может быть выявлена путем вычисления коэффициента линейной парной корреляции если критерии Стьюдента значим, то стохастическая линейная взаимосвязь есть!

Следствия:

1). Матрица нормальных уравнений формально обратима, но плохо обусловлена (её определитель очень мал, и тем меньше, чем сильнее взаимосвязь хj и xk). При большей размерности этой матрицы (десятки и сотни регрессоров) возникают вычислительные проблемы.

2) Если все же удалось построить уравнение регрессии с сохранением в нем мультиколлинеарных факторов, уравнение регрессии имеет плохое качество:

· Модель, как правило, неадекватна;

· Большие среднеквадратичные отклонения оцениваемых параметров ;

· Оценки неустойчивы по вариации исходных данных;

· Данные моделирования трудноинтерпретируемы;

 

<== предыдущая лекция | следующая лекция ==>
Разностные уравнения с лаговыми пременными | Случай нелинейных координатных функций
Поделиться с друзьями:


Дата добавления: 2014-01-05; Просмотров: 273; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.012 сек.