КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Основні інформаційні характеристики дискретних джерел повідомленьВступ Час – 4 год. Навчальні питання Лекція 11(3.1). Двійкові коди з виявленням та виправленням однократної помилки 1.... Основні інформаційні характеристики дискретних джерел повідомлень. 1 2.... Коди, їх класифікація та основні характеристики. 3 3.... Двійкові коди, що виявляють помилки. 6 4.... Двійкові коди, що виправляють однократні помилки. 11 Література. 1. Жураковський Ю.П., Гніліцький В.В. Теорія інформації та кодування в задачах: Навчальний посібник. – Житомир: ЖІТІ, 2002, с. 121 – 126, 131 – 142. В першому питанні пригадаємо основні положення теорії інформації та кодування, а далі почнемо розглядати коди, що виявляють помилки Дискретне джерело інформації – це таке джерело, яке може виробити (згенерувати) за скінчений відрізок часу тільки скінчену множину повідомлень. Кожному такому повідомленню можна співставити відповідне число, та передавати ці числа замість повідомлень. Дискретне джерело інформації є достатньо адекватною інформаційною моделлю дискретних систем, а також неперервних систем, інформаційні сигнали про стан яких піддають аналого-цифровому перетворенню; таке перетворення виконується в більшості сучасних автоматизованих систем управління. Первинні характеристики дискретного джерела інформації – це · алфавіт, · сукупність ймовірностей появи символів алфавіту на виході дискретного джерела · та тривалості символів. Алфавіт – множина Якщо всі ймовірності, які визначають виникнення символів на виході джерела, не залежать від часу, джерело називають стаціонарним. Для опису джерел, які не мають пам’яті, достатньо мати значення безумовних ймовірностей p (xi) виникнення символів xi, i =1, 2, 3,…, M на його виході. Більшість реальних джерел інформації є джерелами з пам’яттю. Розподіл ймовірностей виникнення чергового символу на виході дискретного джерела з пам’яттю залежить від того, які символи були попередніми. Таке джерело інформації називають марковським, оскільки процес появи символів на його виході адекватний ланцюгам Маркова; останні в свою чергу отримали таку назву на честь російського математика Маркова (старшого) Андрія Андрійовича (1856 – 1922), який заклав основи розділу теорії випадкових процесів. Кількість інформації – одне із основних понять теорії інформації, яка розглядає технічні аспекти інформаційних проблем, тобто вона дає відповіді на запитання такого типу: · якою повинна бути ємність запам’ятовуючого пристрою для запису даних про стан деякої системи, · якими повинні бути характеристики каналу зв’язку для передачі певного повідомлення · тощо. Кількісна оцінка інформації пов’язана з поняттям ентропії. Ентропія є мірою невизначеності, непрогнозованості ситуації. Зменшення ентропії, що відбулось завдяки деякому повідомленню, точно збігається з кількістю інформації, яка міститься в цьому повідомленні. Для дискретного немарковського (без пам’яті) джерела інформації ентропія
Зазначимо, що Значення Якщо основа логарифма в (1.1) дорівнює двом, то одиниці вимірювання H, а також кількості інформації називають бітами або двійковими одиницями. Ентропія дискретного розподілу ймовірностей завжди невід’ємна і набуває максимального значення Hmax, коли всі
В цьому разі маємо міру кількості інформації, яку ще до Шеннона було запропоновано англійським математиком Р.Хартлі. Підставимо (1.2) в (1.1), отримаємо
Значення Hmax збігається з кількістю двійкових комірок пам’яті, які необхідно мати, щоб зафіксувати за допомогою двійкового коду інформацію про один із M можливих станів системи, або про символ, що з’явиться на виході дискретного джерела інформації. Ентропія дорівнює нулю, якщо ймовірність появи одного з символів є одиниця (при цьому, звичайно, ймовірність появи будь - якого іншого символу буде дорівнювати нулю); в такій ситуації невизначеність відсутня. Продуктивність
де Надмірність (надлишок) R дискретного джерела інформації дає відносну оцінку використання потенційних можливостей джерела з алфавітом заданої потужності
Надмірність може приймати значення від 0 до 1. Вона дорівнює нулю, якщо Ентропія, продуктивність та надмірність – інтегральні інформаційні характеристики дискретного джерела інформації.
Дата добавления: 2014-01-11; Просмотров: 891; Нарушение авторских прав?; Мы поможем в написании вашей работы! |