КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Два типа взаимосвязей между и
1) может быть неизвестно, какая из двух переменных является независимой, а какая – зависимой, переменные равноправны, это взаимосвязь корреляционного типа; 2) если и неравноправны и одна из них рассматривается как объясняющая (независимая) переменная, а другая – как зависимая, то это взаимосвязь регрессионного типа. Виды регрессий: 1) гиперболическая – регрессия равносторонней гиперболы: ; 2) линейная – регрессия, применяемая в статистике в виде четкой экономической интерпретации ее параметров: ; 3) логарифмически линейная – регрессия вида: ; 4) множественная – регрессия между переменными и , ,..., т. е. модель вида: , где – зависимая переменная (результативный признак), – независимые, объясняющие переменные (признаки-факторы), – возмущение или стохастическая переменная, включающая влияние неучтенных факторов в модели; 5) нелинейная – регрессия, нелинейная относительно включенных в анализ объясняющих переменных, но линейная по оцениваемым параметрам; или регрессия, нелинейная по оцениваемым параметрам; 6) обратная – регрессия, приводимая к линейному виду, реализованная в стандартных пакетах прикладных программ вида: ; 7) парная – регрессия между двумя переменными и , т. е. модель вида: , где – зависимая переменная (результативный признак), – независимая, объясняющая переменная (признак-фактор), – возмущение, или стохастическая переменная, включающая влияние неучтенных факторов в модели. Корреляция – величина, отражающая наличие связи между явлениями, процессами и характеризующими их показателями. Корреляционная зависимость – определение зависимости средней величины одного признака от изменения значения другого признака.
Коэффициент корреляции величин и свидетельствует о наличии или отсутствии линейной связи между переменными: где . Если: , то наблюдается строгая отрицательная связь; , то наблюдается строгая положительная связь; , то линейная связь отсутствует. – ковариация, т. е. среднее произведение отклонений признаков от их средних квадратических отклонений. Коэффициент корреляции может служить мерой зависимости случайных величин. Корреляция для нелинейной регрессии: ; Чем ближе к 1, тем теснее связь рассматриваемых признаков. Формы проявления корреляционной связи между признаками: · причинная зависимость результативного признака от вариации факторного признака; · корреляционная связь между двумя следствиями общей причины. Здесь корреляцию нельзя интерпретировать как связь причины и следствия. Оба признака – следствие одной общей причины; · взаимосвязь признаков, каждый из которых и причина, и следствие. Каждый признак может выступать как в роли независимой переменной, так и в качестве зависимой переменной. Задачи корреляционно-регрессионного анализа: · выбор спецификации модели, т. е. формулировки вида модели, исходя из соответствующей теории связи между переменными; · из всех факторов, влияющих на результативный признак, необходимо выделить наиболее существенно влияющие факторы; · парная регрессия достаточна, если имеется доминирующий фактор, который и используется в качестве объясняющей переменной. Поэтому необходимо знать, какие остальные факторы предполагаются неизменными, так как в дальнейшем анализе их придется учесть в модели и от простой регрессии перейти к множественной; · исследовать, как изменение одного признака меняет вариацию другого. Предпосылки корреляционно-регрессионного анализа: · уравнение парной регрессии характеризует связь между двумя переменными, которая проявляется как некоторая закономерность лишь в среднем в целом по совокупности наблюдений; в уравнении регрессии корреляционная связь признаков представляется в виде функциональной связи, выраженной соответствующей математической функцией;
· случайная величина включает влияние неучтенных в модели факторов, случайных ошибок и особенностей измерения; · определенному значению признака-аргумента отвечает некоторое распределение признака функции. Недостатки анализа: 1) невключение ряда объясняющих переменных: · целенаправленный отказ от других факторов; · невозможность определения, измерения определенных величин (психологические факторы); · недостаточный профессионализм исследователя моделируемого; 2) агрегирование переменных (в результате агрегирования теряется часть информации); 3) неправильное определение структуры модели; 4) использование временной информации (изменив временной интервал, можно получить другие результаты регрессии); 5) ошибки спецификации: · неправильный выбор той или иной математической функции; · недоучет в уравнении регрессии какого-либо существенного фактора, т. е. использование парной регрессии, вместо множественной); 6) ошибки выборки, так как исследователь чаще имеет дело с выборочными данными при установлении закономерной связи между признаками. Ошибки выборки возникают и в силу неоднородности данных в исходной статистической совокупности, что бывает при изучении экономических процессов; 7) ошибки измерения представляют наибольшую опасность. Если ошибки спецификации можно уменьшить, изменяя форму модели (вид математической формулы), а ошибки выборки – увеличивая объем исходных данных, то ошибки измерения сводят на нет все усилия по количественной Корреляционные параметрические методы – методы оценки тесноты связи, основанные на использовании, как правило, оценок нормального распределения, применяются в тех случаях, когда изучаемая совокупность состоит из величин, которые подчиняются закону нормального распределения. Параметризация уравнения регрессии: установление формы зависимости; определение функции регрессии; оценка значений параметров выбранной формулы статистической связи. Методы изучения связи – форму зависимости можно установить с помощью поля корреляции. Если исходные данные (значения переменных и ) нанести на график в виде точек в прямоугольной системе координат, то получим поле корреляции. При этом значения независимой переменной (признак-фактор) откладываются по оси абсцисс, а значения результирующего фактора откладываются по оси ординат. Если зависимость от функциональная, то все точки расположены на какой-то линии. При корреляционной связи вследствие влияния прочих факторов точки не лежат на одной линии.
Расчет показателей силы и тесноты связей. Линейный коэффициент корреляции – количественная оценка и мера тесноты связи двух переменных. Коэффициент корреляции принимает значения в интервале от –1 до +1. Считают, что если этот коэффициент не больше 0,30, то связь слабая; от 0,3 до 0,7 – средняя; больше 0,7 – сильная, или тесная. Когда коэффициент равен 1, то связь функциональная, если он равен 0, то говорят об отсутствии линейной связи между признаками.
. Коэффициент детерминации – квадрат линейного коэффициента корреляции, рассчитываемый для оценки качества подбора линейной функции. Формула нелинейного коэффициента корреляции: .
Дата добавления: 2014-12-29; Просмотров: 490; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |