КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Случайные величины и их вероятностные характеристики
Или Или где - символ объединения событий (логическая операция ИЛИ). Из определения суммы событий непосредственно вытекают следующие соотношения: А + А = А, А + U = U, A + V = A, A + B = B + A, (A + B) + C = A + (B + C). Произведением (или пересечением, или совмещением) событий А1, А2, А3, … называется такое событие А, которое происходит тогда и только тогда, когда происходят все события вместе («одновременно »). Для обозначения произведения событий применяются следующие записи:
где ∩ - символ пересечения событий (логическая операция И). Для произведения событий справедливы соотношения: АА = А, AV = V, AU = A, AB = BA, (AB)C = A(BC) Понятия суммы и произведения употребляются здесь не в арифметическом смысле, а обозначают соответствующие логические операции. В основе косвенных методов оценки вероятности сложного события А через вероятности более простых событий А1, А2, …Аn базируется на использовании основных теорем теории вероятностей (теорем сложения и умножения вероятностей и их следствий). Согласно теореме сложения вероятностей вероятность суммы двух событий равна сумме вероятностей этих событий минус вероятность их произведения: (2.3) Если события А и В несовместимы, то: (2.4) Формулы (2.3) и (2.4) обобщаются на сумму любого числа n событий: (2.5)
(2.6)
Сумма вероятностей несовместимых событий, составляющих полную группу, равна единице: (2.7)
Сумма вероятностей двух противоположных событий равна единице: (2.8) По теореме умножения вероятностей для двух событий вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что произошло первое: (2.9) где P (A|B) -условная вероятность события А, т.е. вероятность события А, вычисленная в предположении, что имело место событие В. Если событие А статически не зависит от события В, то P (A|B) = P(A), причем события А и В называются независимыми. При независимых событиях А и В выражение (2.9) принимает вид: (2.10) Формулы (2.9.) и (2.10.) обобщаются на n событий А1, А2, …Аn: (2.9а)
(2.10а) Решение многих практических задач требует совместного использования теорем сложения и умножения вероятностей. В частности, с помощью этих теорем производится расчет вероятности безотказной работы, например, радиотехнических систем. Из формулы (2.9.) получаем: (2.11) Решение многих практических задач требует совместного использования теорем сложения и умножения вероятностей в частности с помощью этих теорем производится расчет вероятностей безотказной работы, например систем передачи информации. Найдем вероятность Рn,k того, что при n независимых испытаниях, исходом которых может быть одно из двух противоположных событий А или Ā, событие А произойдет ровно k раз. Вероятность события А обозначим Р(А) = Р, тогда Р(Ā) = 1 – Р. Вероятность конкретной комбинации исходов n независимых испытаний, когда при определенных k испытаниях появилось событие А, а при остальных n – k испытаниях – событие Ā, в соответствии с теоремой умножения вероятностей равна Pk (1 – P)n – k, независимо от того, в каком порядке чередовалисьв данной комбинации исходы событий А и Ā. Интересующее нас сложное событие представляет сумму всех исходов n-кратных испытаний, дающих k появлений события А. Поскольку исходы с разным порядком чередования событий А и Ā несовместны, а число исходов, дающих в разной последовательности k появлений события А в n испытаниях, равно числу сочетаний из n элементов по k, то в соответствии с теоремой сложения вероятностей (2.12) (При решении многих задач целесообразно использовать «комбинаторные» способы, т.е. теорию Соединений (размещений, перестановок, сочетаний). В формуле (2.12) – число сочетаний из n элементов по k. Формула (2.12) носит название биноминального закона. Во многих реальных ситуациях то или иное событие А может появляться лишь как случайное следствие одного из несовместных событий Hi (i= 1, 2, …, n), которые входят в некоторую полную группу событий и называются гипотезами. В таких случаях безусловная вероятность P (A) события A при известных вероятностях гипотез P (Hi) и условных вероятностях P (A|Hi) определяется по формуле полной (или средней) вероятности: (2.13) При этих же данных, т.е. известных вероятностях P (Hi) и P (A|Hi), можно найти изменение вероятностей гипотез Hi, если предположить, что событие A уже произошло. Задачи подобного типа решаются с помощью теоремы гипотез (или формулы Байеса): (2.14) Вероятность P (Hi) называется априорной (доопытной), а P (A|Hi) – апостериорной (послеопытной), обратной вероятностью, или функцией правдоподобия той или иной гипотезы об исходе непосредственно не наблюдаемого явления H при известном исходе явления A, если только известны значения вероятностей P (Hj) исходов Hj (в сочетании с любым из исходов Аi) и значения условных вероятностей P (Ai|Hj). Если случайная величина ξ может принимать конечное число дискретных значений xi, исчерпывающей вероятностной характеристикой ее служит распределение вероятностей этих значений Pi. (По аналогии со случайными функциями случайные величины обозначим буквами греческого алфавита, а их конкретные реализации – буквами латинского алфавита.) Если случайная величина ξ непрерывна и может принимать любое значение на интервале [xmin, xmax], то ее статистической характеристикой может служить так называемый интегральный закон распределения F (x)=P(ξ<x), определяющий вероятность того, что случайная величина ξ не превзойдет значение x. Из определения интегрального закона распределения вытекает следующее очевидное соотношение: где – вероятность того, что случайная величина ξ не выйдет за пределы интервала [x1, x2]. Очевидны следующие свойства функции F(x): F(x) – монотонная неубывающая функция;
Если функция F(x) дифференцируемая, то в качестве вероятностной характеристики случайной величины удобно использовать дифференциальный закон распределения или закон распределения плотности вероятности (2.15) Очевидны следующие соотношения:
Помимо законов распределения, часто используются числовые характеристики случайных величин, так называемые моменты распределения. Моменты, характеризующие распределение случайных величин относительно нуля, называются начальными. Для непрерывных случайных величин начальный момент k-го порядка определяется по формуле (2.16) Для дискретной случайной величины ξ, принимающей значения x1, x2, …, xn с вероятностями P1, P2, …, Pn, (2.17) Наиболее важное значение имеют моменты 1-го и 2-го порядков. Начальный момент 1-го порядка дает математическое ожидание или среднее значение случайной величины ξ: (2.18) Разность Δξ=ξ – m1(ξ) называется отклонением случайной величины. Моменты распределения отклонений случайной величины называются центральными и обозначаются Mk(ξ). Нетрудно убедиться, что M1(ξ)=0. Случайные величины с нулевым средним значением называются центрированными. Любые случайные величины можно свести к центрированным, если перейти к отклонениям Δξ. Начальный момент 2-го порядка определяет средний квадрат случайной величины ξ: (2.19) Центральный момент 2-го порядка называется дисперсией случайной величины: (2.20) Отношение Δξ/σξ называется нормированным отклонением случайной величины. Центральный и начальный момент 2-го порядка случайной величины связаны простым соотношением: (2.21) Для совокупности двух случайных величин ξ1 и ξ2 исчерпывающей вероятностной характеристикой служит двумерный интегральный закон распределения F(x1, x2)=P(ξ1<x1, ξ2<x2), определяющий вероятность того, что случайные величины ξ1 и ξ2 не превосходят соответственно значений x1 и x2. Если функция F(x1, x2) дифференцируемая, то вероятностной характеристикой двумерной случайной величины может служить двумерный дифференциальный закон распределения или двумерная плотность вероятностей ω2(x1, x2)=∂2F(x1, x2)/∂x1∂x2. Аналогично могут быть введены многомерный интегральный закон распределения и многомерные функции распределения для совокупностей из любого числа случайных величин. Можно также ввести числовые характеристики для совокупности двух случайных величин ξ1 и ξ2, имеющих двумерную плотность вероятностей ω2(x1, x2). Весьма важной числовой характеристикой совокупности двух случайных величин является смешанный второй центральный момент или ковариация случайных величин ξ1 и ξ2: (2.22) Если случайные величины ξ1 и ξ2 независимы, то ω2(x1, x2)=ω(x1)ω(x2), и двукратный интеграл в (2.22) распадается на произведения двух однократных интегралов:
и, следовательно, M2(ξ1, ξ2)=0. Поэтому ковариация M2(ξ1, ξ2) может служить некоторой мерой зависимости между двумя случайными величинами. Чаще в качестве такой меры принимают безразмерный коэффициент корреляции Две случайные величины, для которых коэффициент корреляции равен нулю, называются некоррелированными. Случайные величины, для которых 1-й начальный момент их произведения называют ортогональными. Если средние значения случайных величин равно нулю, то понятия ортогональности и некоррелированности случайных величин совпадают. Моменты распределения того или иного порядка, являясь важными числовыми характеристиками случайной величины, не являются, однако, их однозначной полной статистической характеристикой: случайные величины, имеющие одинаковые 1-й и 2-й моменты, могут иметь разные законы распределения.
Дата добавления: 2014-12-07; Просмотров: 1132; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |