КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
На самостоятельную работу
Задача 4. Задача 3 Задача 2 Задача 1. Приклади визначення параметрів об'єднаної імовірнісної схеми Маємо два дискретних немарковських джерела інформації з алфавітами та з такими розподілами ймовірностей появи символів: Не розраховуючи ентропії джерел, дати відповідь, яке з них має більшу ентропію. Розв’язання. Оскільки розподіл ймовірностей появи символів на виході джерела з алфавітом є більш близьким до рівноймовірного, ентропія цього джерела буде більшою, ніж джерела з алфавітом. Розрахунки підтверджують цей висновок: Матриця ймовірностей сумісної появи символів на виходах двох немарковських джерел з алфавітами та має вигляд:
Визначити, яке з джерел має більшу ентропію та чи є джерела статистично незалежними. Розв’язання. Для відповіді на перше запитання розрахуємо, користуючись виразами (1.13), безумовні ймовірності появи символів на виходах першого та другого джерел: p (x 1) = 0,0336 + 0,3150 + 0,0714 = 0,42 ; p (x 2) = 0,0264 + 0,2475 + 0,0561 = 0,33 ; p (x 3) = 0,0200 + 0,1875 + 0,0425 = 0,25 ; p (y 1) = 0,0336 + 0,0264 + 0,0200 = 0,08 ; p (y 2) = 0,3150 + 0,2475 + 0,1875 = 0,75 ; p (y 3) = 0,0714 + 0,0561 + 0,0425 = 0,17 . Тепер можемо знайти ентропії джерел за виразом (1.1): Таким чином, джерело з алфавітом має більшу ентропію, ніж джерело з алфавітом. Відповідь на друге запитання можна отримати різними способами. По-перше, оскільки вже відомі значення ентропії та, доцільно перевірити, чи виконується рівність (1.18). Для цього розрахуємо сумісну ентропію. Підставивши чисельні значення ймовірностей у вираз (1.11), отримаємо: Оскільки,джерела є статистично незалежними. Другий спосіб базується на перевірці виконання співвідношень для всіх пар символів: p (x 1) × p (y 1) = 0,42×0,08 = 0,0336 ; p (x 2) × p (y 1) = 0,33×0,08 = 0,0264 ; p (x 3) × p (y 1) = 0,25×0,08 = 0,0200 ; p (x 1) × p (y 2) = 0,42×0,75 = 0,3150 ; p (x 2) × p (y 2) = 0,33×0,75 = 0,2475 ; p (x 3) × p (y 2) = 0,25×0,75 = 0,1875 ; p (x 1) × p (y 3) = 0,42×0,17 = 0,0714 ; p (x 2) × p (y 3) = 0,33×0,17 = 0,0561 ; p (x 3) × p (y 3) = 0,25×0,17 = 0,0561 . Як і слід було очікувати, розраховані ймовірності цілком збігаються із відповідними значеннями ймовірностей сумісної появи символів, що наведені в умовах задачі. Найбільш універсальним способом оцінки статистичної залежності джерел є обчислення повної взаємної інформації. Аналізуючи вираз (1.23), легко зрозуміти, що для джерел цієї задачі,оскільки для усіх пар Ще один спосіб розв’язання задачі базується на аналізі матриці умовних імовірностей. Розрахуємо, наприклад, умовні ймовірності, користуючись виразом:
Всі елементи кожного стовпця однакові і дорівнюють безумовній ймовірності появи відповідного символу. Це означає, що ймовірність появи символу на виході першого джерела не залежить від символу на виході другого джерела. Можна переконатись, що i в матриці умовних ймовірностей всі елементи кожного стовпця будуть однаковими і дорівнювати. Маємо три дискретних немарковських джерела інформації з алфавітами,,. Матриці ймовірностей сумісної появи пар символів є такими:
Визначити, між якими джерелами статистичний зв’язок найбільший, а між якими найменший. Розв’язання. Для відповіді на поставлене запитання треба знайти значення повної взаємної інформації для всіх пар джерел, та порівняти їх. Найпростіше в даному разі користуватись виразом
Щоб обчислити безумовні ентропії кожного з джерел, знайдемо безумовні ймовірності появи символів на виході джерел за виразом (1.13): Слід зазначити, що значення кожної з ймовірностей можна отримати двома шляхами. Так є сумою елементів відповідних рядків першої матриці, або елементів стовпців третьої матриці. Це означає, що матриці, наведені в завданні, відповідним чином узгоджені. Розрахуємо ентропії джерел, користуючись (1.1): H (X) = 1,157 біт; H (Y) = 0,971 біт; H (Z) = 1,0 біт. Далі за виразом (1.11) знаходимо сумісні ентропії: Нарешті отримаємо: Рівність нулю означає, що джерела з алфавітами тастатистично незалежні. Найбільший статистичний зв’язок має місце між джерелами з алфавітамита, оскільки має найбільше значення. Известны энтропии двух зависимых источников Н(Х) = 5 бит; Н(Y) = 10 бит. Определить, в каких максимально возможных пределах будет изменяться условная энтропия Н(Y/X). Решение. Уяснению соотношений между рассматриваемыми энтропиями источников информации способствует их графическое отображение. При отсутствии взаимосвязи между источниками информации:
Если источники информации независимы, то Н(Y/X) = Н(Y) = 10 бит, а Н(X/Y) = H(X) = 5 бит, и, следовательно, Н(X,Y) = H(X) + H(Y) = 5 +10 = 15 бит. Т.е., когда источники независимы Н(Y/X) = Н(Y) = 10 бит и поэтому принимают максимальное значение. По мере увеличения взаимосвязи источников Н(Y/X) и Н(X/Y) будут уменьшаться:
При полной зависимости двух источников один из них не вносит никакой информации, т.к. при появлении xi неизбежно следует уj, т.е. p(xi, уj) равно единице при и нулю при. Поэтому в, следовательно,.
При этом, тогда. Поэтому будет изменяться от 10 бит до 5 бит при максимально возможном изменении от 5 бит до 0 бит. Задача 1. Определите и Н(Y/X), если p(х1,y1) = 0,3; p(x1,y2) = 0,2; p(x1,y3) = 0,15; p(x3,y2) = 0,25; p(x3,y3) = 0,1.
Задача 2. Определите,, если p(х1,y1) = 0,2; p(x2,y1) = 0,4; p(x2,y2) = 0,25; p(x2,y3) = 0,15.
Задача 3 Маємо три дискретних немарковських джерела з алфавітами Ймовірності сумісної появи символів мають такі значення: p ( x 1, y 1, z 1 ) = 0,048; p ( x 1, y 1, z 2 ) = 0,012; p ( x 1, y 2, z 1 ) = 0,072; p ( x 1, y 2, z 2 ) = 0,162; p ( x 2, y 1, z 1 ) = 0,272; p ( x 2, y 1, z 2 ) = 0,068; p ( x 2, y 2, z 1 ) = 0,300; p ( x 2, y 2, z 2 ) = 0,060. Знайти ентропії кожного з джерел, системи трьох джерел, а також повну взаємну інформацію для кожної пари джерел.
Дата добавления: 2013-12-12; Просмотров: 322; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |