Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Среднее квадратическое отклонение альтернативного признака 2 страница




Корреляционные методы выявления взаимосвязей в отличие от вышеизложенных методов изучения взаимосвязей не только позволяют установить связь и выявить ее причины, но и позволяют измерить степень тесноты связи. Они дают возможность выразить эту связь аналитически в виде определенного математического уравнения. Корреляционные методы анализа являются основными в изучении связей между социально - экономическими явлениями. Корреляционная зависимость исследуется с помощью корреляционного и регрессионного анализов. Корреляционный анализ позволяет оценить тесноту связи с помощью парных, частных и множественных коэффициентов корреляции. Целью регрессионного анализа является оценка функциональной зависимости среднего значения результативного признака (У) от факторного (Х) или факторных

1, Х2, Х3, …Хn).

Корреляционные методы изучения взаимосвязей можно разделить на две группы: непараметрические методы и методы собственно корреляции.

8.3.Непараметрические корреляционные методы изучения взаимосвязей.

Непараметрические корреляционные методы исследования связей включают расчеты различных коэффициентов, с помощью которых измеряется теснота связи между явлениями, где обычные методы корреляции недостаточны или невозможны. Например, при определении тесноты связи между качественными признаками. Непараметрические методы не требуют никаких предположений о законе распределения исходных данных, т. к. при их использовании оперируют не значениями признаков, а их частотами, знаками, рангами и т. д. Это ранговый коэффициент Спирмена, коэффициент Фехнера, коэффициенты ассоциации и контингенции, коэффициенты взаимной сопряженности Пирсона и Чупрова, коэффициент корреляции рангов Кендалла.

Ранговый коэффициент Спирмена измеряет взаимосвязь между отдельными признаками с помощью условной оценки по рангам. Ранг (R) – это порядковый номер значений признака, расположенных в порядке возрастания или убывания их величины на основе предпочтения (лучший – на первом месте, худший – на последнем). Рассчитывается он по формуле:

Коэффициент Спирмена изменяется от – 1 до + 1 и равен нулю при отсутствии связи. Эта формула используется, когда нет связанных (одинаковых в ряду) рангов. Если значения признака совпадают (появляются одинаковые в ряду ранги), то определяется средний ранг путем деления суммы рангов на число значений. Коэффициент Спирмена в этом случае определяется по формуле

Критерий тесноты связи для коэффициента Спирмена 0,5, т.е. Р≥ 0,5

Значимость коэффициента Спирмена проверяется на основе критерия Стьюдента. Расчетное значение критерия Стьюдента определяется по формуле , которое сравнивается с теоретическим

значением (tT) при заданном уровне значимости и числе степеней свободы (n-m). Значение коэффициента корреляции рангов Спирмена считается существенным, если tP› tT.

Коэффициент Фехнера (Кф) или коэффициент совпадения знаков основан на применении первых степеней отклонений от средних значений признаков двух связанных рядов показателей.

Коэффициент Фехнера также изменяется от -1 до +1 и равен нулю при отсутствии связи. В сравнении с коэффициентом Спирмена он дает более осторожную оценку, т.е. коэффициент Фехнера всегда меньше коэффициента Спирмена.

Коэффициент корреляции рангов Кендалла также используется для измерения тесноты связи между качественными признаками, ранжированными по одному принципу. Расчет осуществляется по формуле:

, где n -число наблюдений; S=P+Q.

Для нахождения P и Q надо произвести ранжирование по факторному признаку (х) в порядке предпочтительности и ранжирование по результативному признаку (у) соответственно предпочтительности факторного признака. Тогда Р - это количество чисел, находящихся после каждого из элементов последовательности рангов переменной (у) и имеющих величину ранга больше ранга рассматриваемого элемента, а Q - это количество чисел находящихся после каждого из элементов последовательности рангов переменной (у), имеющих величину ранга меньше ранга рассматриваемого элемента и взятых со знаком минус.

Например, необходимо определить степень тесноты связи между уровнем механизации труда (х) и трудоемкостью единицы продукции (у) по данным 10 заводов:

Таблица 8.1

Номер завода                    
Уровень механизации труда, %                    
Трудоемкость единицы продукции, мин.                    
Ранг по х                    
Ранг по у                    

Ранг по х проставляется от большего к меньшему, т.к. лучшее значение большее. Ранг по у проставляется в соответствии с ранжированием х,т.е. тоже от большего к меньшему. Располагаем ранги по х в порядке возрастания, а по у в соответствии с х.

Таблица 8.2

Номер завода                    
Уровень механизации труда, %                    
Трудоемкость единицы продукции, мин.                    
Ранг по х                    
Ранг по у                    

Определяем Р = 0+0+4+0+1+3+3+1+0=12, т.к. после 10 ранга по у нет чисел больше 10 (0), после 9 нет чисел больше 9 (0), после 4 четыре числа больше 4 (8; 6; 5; 7), после 8 нет чисел больше 8 (0), после 6 одно число больше 6 (7), после 2 три числа больше 2 (5; 7; 3), после 1 три числа больше 1 (5; 7; 3), после 5 одно число больше 5 (7), после 7 нет чисел больше 7 (0).

Определяем Q= -9-8-3-6-4- 1-0-1-1=-33, т.к. после 10 девять чисел меньше 10, после 9 восемь чисел меньше 9. после 4 три числа меньше 4 и т. д. Следовательно, связь умеренная и обратная.

Коэффициент Кендалла изменяется от -1 до + 1 и равен нулю при отсутствии связи.

Если в изучаемой совокупности есть связанные ранги, то расчеты коэффициента Кендалла необходимо произвести по следующей формуле:

, где

 

; ;

Значимость коэффициента Кендалла также определяется по t критерию Стьюдента.

В практике статистических исследований приходится иногда анализировать связь между альтернативными признаками, представленными только группами с противоположными (взаимоисключающими) характеристиками. Тесноту связи в этом случае можно оценить с помощью коэффициентов ассоциации и контингенции.

Коэффициент ассоциации определяется по формуле

Связь считается подтвержденной, если Ка≥0,5

Коэффициент контингенции определяется по формуле:

Связь считается подтвержденной, если Кк≥0,3

Для расчета коэффициентов ассоциации и контингенции строится таблица, которая показывает связь между двумя явлениями, каждое из которых должно быть альтернативным.

 

Таблица 8.3

Группы по признаку у   Группы по признаку х     Итого
  a b a+b
  c d c+d
Итого a+c b+d a+b+c+d

или

Таблица 8.4

Группы по признаку (у) Группы по признаку (х)     Итого
  a c a+c
  b d b+d
Итого a+b c+d a+c+b+d

Коэффициент контингенции всегда меньше коэффициента ассоциации, но оба изменяются от -1 до +1.

При ad›bc связь прямая, при ad‹bc связь обратная, при ad=bc связь отсутствует.

Если по каждому из взаимосвязанных признаков число групп больше двух, то теснота связи между качественными признаками измеряется с помощью показателей взаимной сопряженности Пирсона и Чупрова.

Коэффициент взаимной сопряженности Пирсона определяется по формуле , где или

Связь считается подтвержденной, если КП≥0,3

Коэффициент взаимной сопряженности Чупрова определяется по формуле ,

где k1- количество групп по признаку х; k2 -количество групп по признаку у

Критерий тесноты связи Кч≥ 0,3

Для расчета коэффициентов Пирсона и Чупрова используется таблица, в которой количество групп по каждому признаку может быть более двух.

Таблица 8.5

Группы по признаку (у) Группы по признаку (х)   2 и т.д. Итого
  nxy nxy nx
  nxy nxy nx
3 и т. д. nxy nxy nx
Итого ny ny n

Проверка значимости коэффициентов Пирсона и Чупрова осуществляется по критерию , где nxy -частота совместного появления признаков; nx,ny -суммы частот по строкам и столбцам соответственно; n- численность совокупности. Расчетное значение должно быть больше табличного () при выбранном уровне вероятности. Формулы коэффициентов Пирсона и Чупрова через будут соответственно:

Коэффициент Пирсона ;

Коэффициент Чупрова .

8.4.Методы собственно-корреляции.

Все явления и процессы, характеризующие социально-экономическое развитие и составляющие единую систему национальных счетов, тесно взаимосвязаны и взаимозависимы между собой.

В статистике показатели, характеризующие эти явления, могут быть связаны либо корреляционной зависимостью, либо быть независимыми.

Корреляционная зависимость является частным случаем стохастической зависимости, при которой изменение значений факторных признаков 12,…, хn) влечет за собой изменение среднего значения результативного признака.

Корреляционная зависимость исследуется с помощью методов корреляционного и регрессионного анализов.

Корреляционный анализ имеет своей задачей количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи). Теснота связи количественно выражается величиной коэффициентов корреляции.

Основной предпосылкой применения корреляционного анализа является необходимость подчинения значений всех факторных признаков и результативного нормальному закону распределения или близость к нему.

Если объем изучаемой совокупности достаточно большой (n›50), то нормальность распределения может быть подтверждена на основе расчета и анализа, например, критерия Пирсона. Если n‹50, то закон распределения исходных данных определяется на базе построения и визуального анализа поля корреляции (графически).

Целью регрессионного анализа является оценка функциональной зависимости условного среднего значения результативного признака от факторных признаков. Он заключается в определении аналитического выражения связи.

Основной предпосылкой регрессионного анализа является то, что только результативный признак подчиняется нормальному закону распределения, а факторные признаки могут иметь произвольный закон распределения.

Уравнение регрессии, или статистическая модель связи социально-экономических явлений, выражаемая функцией .

Теоретическая обоснованность моделей взаимосвязи, построенных на основе корреляционно-регрессионного анализа, обеспечивается соблюдением следующих основных условий:

1. Все признаки должны подчиняться нормальному закону распределения.

2. Отдельные наблюдения должны быть независимыми, т. е. между собой.

Практика выработала определенный критерий в определении оптимального числа факторов. Число факторных признаков должно быть в 5-6 раз меньше объема изучаемой совокупности.

По количеству включаемых факторов модели могут быть однофакторными и многофакторными.

Наиболее разработанной в теории статистики является методология так называемой парной корреляции, рассматривающая влияние вариации факторного признака х на результативный признак у и представляющая собой однофакторный корреляционный и регрессионный анализ. Овладение теорией и практикой построения и анализа двухмерной модели корреляционного и регрессионного анализа представляет собой исходную основу для изучения многофакторных стохастических связей.

Важнейшим этапом построения регрессионной модели (уравнения регрессии) является установление в анализе исходной информации математической функции. Сложность заключается в том, что из множества функций необходимо найти такую, которая лучше других выражает реально существующие связи между анализируемыми признаками.

По форме зависимости различают:

- линейную регрессию, которая выражается уравнением прямой (линейной функцией)

- нелинейную регрессию, которая выражается уравнениями вида:

-гиперболы -

-параболы второго порядка - и т. д.

По направлению связи различают:

- прямую регрессию (положительную), возникающую при условии, если с увеличением или уменьшением значений факторного признака значения результативного признака также соответственно увеличиваются или уменьшаются;

- обратную (отрицательную) регрессию, появляющуюся при условии, что с увеличением или уменьшением значений факторного признака значения результативного признака соответственно уменьшаются или увеличиваются.

Определить тип уравнений можно, исследуя зависимость графически. В системе координат на оси абсцисс откладываются значения факторного признака, а на оси ординат - результативного. Каждое пересечение линий, проводимых через эти оси, обозначается точкой. При отсутствии тесных связей имеет место беспорядочное расположение точек на графике. Чем сильнее связь между признаками, тем теснее будут группироваться точки вокруг определенной линии, выражающей форму связи.

Проиллюстрировать их графическое изображение можно рисунками 8.1 и 8.2.

 

Оценка параметров уравнений регрессии (а012) осуществляется методом наименьшим квадратов, в основе которого лежит предположение о независимости наблюдений исследуемой совокупности.

Система нормальных уравнений для нахождения параметров линейной парной регрессии методом наименьших квадратов имеет следующий вид:

, где

n- объем исследуемой совокупности (число единиц наблюдения).

В уравнениях регрессии параметр а0 показывает усередненное влияние на результативный признак неучтенных (не выделенных для исследования) факторов; параметр а1) -коэффициент регрессии показывает, на сколько изменяется в среднем значение результативного признака при увеличении факторного на единицу собственного измерения.Параметр а2 характеризует степень ускорения или замедления кривизны параболы и при а2›0 парабола имеет минимум, а при а2‹0 – максимум. Параметр а1 характеризует крутизну кривой, а параметр а0 вершину кривой.

Коэффициент регрессии применяют для определения коэффициента эластичности, который показывает, на сколько процентов в среднем изменяется величина результативного признака у при изменении признака-фактора х на один процент.

Коэффициент эластичности определяется по формуле .

Систему нормальных уравнений для нахождения параметров гиперболы можно представить следующим образом:

Система нормальных уравнений при параболической зависимости имеет следующий вид:

Решив соответствующие системы уравнений, и найдя значения неизвестных коэффициентов , получают уравнение регрессии. Затем определяются теоретические значения .

Измерение тесноты и направления связи является важной задачей изучения и количественного измерения взаимосвязи. Оценка тесноты связи между признаками предполагает определение меры соответствия вариации результативного признака от одного (при изучении парных зависимостей) или нескольких (множественных) факторов.

В случае наличия между двумя признаками линейной зависимости теснота связи измеряется линейным коэффициентом корреляции.

Линейный коэффициент корреляции изменяется от-1до+1: -1≤ r ≤+1.

Знаки коэффициентов регрессии и корреляции совпадают.

Значимость линейного коэффициента корреляции проверяется на основе t критерия Стьюдента: . Если расчетное значение

tp›tТ (табличного), то это свидетельствует о значимости линейного коэффициента корреляции.

По сгруппированным данным в случае линейной и нелинейной зависимости между двумя признаками для измерения тесноты связи применяют корреляционное отношение.

Эмпирическое корреляционное отношение рассчитывается по данным группировки по формуле , где

Корреляционное отношение изменяется в пределах от 0 до 1

Подкоренное выражение корреляционного отношения представляет собой коэффициент детерминации(), который показывает долю вариации результативного признака под влиянием вариации признака-фактора.

Для оценки значимости уравнения регрессии в целом, особенно при нелинейных зависимостях, используют F-критерий Фишера.

Проверка значимости коэффициента детерминации осуществляется также по F-критерию Фишера, расчетное значение которого

, где n -число наблюдений, а m -число признаков (при парной корреляции m=2). Вычисленные значения Fр сравнивается с критическим (табличным) FT для принятого уровня значимости и чисел степеней свободы v1=m-1 и v2=n-m. Значимость подтверждается, если Fp›FT.

Для качественной оценки тесноты связи на основе показателя эмпирического корреляционного отношения можно воспользоваться соотношениями Чэддока:

 

ηэ 0,1-0,3 0,3-0,5 0,5-0,7 0,7-0,9 0,9-0,99

Сила связи Слабая Умеренная Заметная Тесная Весьма тесная

 

 

Глава 9.




Поделиться с друзьями:


Дата добавления: 2014-12-29; Просмотров: 387; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.071 сек.