КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Ефективне кодування
Задачі 6.3.1. Отримати чисельні значення ентропії, продуктивності та надмірності немарковського дискретного джерела інформації з алфавітом X потужності M = 4.Значення ймовірностей p (xi) виникнення символів та їх тривалостей t i (в мілісекундах, мс) для різних варіантів наведені у таблиці 6.3.1. Таблиця 6.3.1
1.3.2. Маємо два немарковських дискретних джерела інформації з алфавітами X = { x 1, x 2, x 3} та Y = { y 1, y 2}. Чисельні значення ймовірностей p ( xi, yk) сумісного виникнення символів на виходах джерел для різних варіантів наведені у таблиці 1.3.2. Чому дорівнює ентропія системи цих двох джерел? Яке з цих джерел має більшу надмірність? Чи є джерела статистично незалежними? Таблиця 1.3.2
6.3.3. Марковське дискретне джерело інформації має алфавіт X = { x 1, x 2}. Статистичні зв’язки розповсюджуються тільки на суміжні символи (тобто глибина пам’яті h = 1). Чисельні значення умовних ймовірностей p ( xi / xk) та тривалостей символів t i ( в мі-лісекундах, мс) для різних варіантів наведені у таблиці 6.3.3. Отримати чисельні значення ентропії, продуктивності та надмірності джерела. Таблиця 6.3.3
6.3.4. Маємо два немарковських дискретних джерела інформації з алфавітами X = { x 1, x 2, x 3} та Y = { y 1, y 2}. Чисельні значення безумовних p (yk) та умовних p (yk / xi) ймовірностей виникнення символів на виході джерела з алфавітом Y відомі та для різних варіантів наведені у таблиці 6.3.4. Отримати чисельні значення ентропії H (X, Y) системи цих двох джерел та повної взаємної інформації I (X, Y). Яке з цих джерел має більшу надмірність? Таблиця 6.3.4
ЛІТЕРАТУРА
1. Арманд В.А., Железняков В.В. Штриховые коды в системах обработки информации. – М.: Радио и связь, 1989. – 92 с. 2. Берлекэмп Э. Алгебраическая теория кодировния. – М.: Мир, 1971. – 477 с. 3. Боккер П. Передача данных / Техника связи в системах телеобработки данных /: В 2-х томах. Т.1. Основы: Пер. с нем. / Под ред. Д.Д.Кловского. – М.: Связь, 1980. – 264 с. 4. Былянски Л., Ингрем Д. Цифровые системы передачи: Пер. с англ. / Под ред. А.А.Визеля. – М.: Связь, 1980. – 360 с. 5. Гніліцький В.В. Основи теорії інформації в задачах. Частина перша: Навч. посібник. – Житомир: ЖІТІ, 1999. – 76 c. 6. 3144-95. Державний стандарт України. Коди та кодування ін-формації. Штрихове кодування. Терміни та визначення. – Чинний з 1996 р. 7. Дмитриев В.И. Прикладная теория информации. – М.: Высш. шк., 1989. – 320 с. 8. Емельянов Г.А., Шварцман В.О. Передача дискретной информации. – М.: Радио и связь, 1982. – 240 с.
Дата добавления: 2014-10-17; Просмотров: 771; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |