Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Ефективне кодування




Задачі

6.3.1. Отримати чисельні значення ентропії, продуктивності та надмірності немарковського дискретного джерела інформації з алфавітом X потужності M = 4.Значення ймовірностей p (xi) виникнення символів та їх тривалостей t i (в мілісекундах, мс) для різних варіантів наведені у таблиці 6.3.1.

Таблиця 6.3.1

№ варіанта p (x 1) p (x 2) p (x 3) p (x 4) t 1 t 2 t 3 t 4
  0,33 0,08 0,15 0,44 1,2 0,2 0,8 0,5
  0,21 0,16 0,03 0,6 5,4 1,5 2,3 1,2
  0,15 0,27 0,34 0,24        
  0,05 0,08 0,11 0,76 8,6 3,4 5,8 0,9
  0,62 0,28 0,04 0,06 0,3 0,4 0,6 0,8
  0,17 0,41 0,23 0,19 2,6 1,1 0,5 7,3
  0,55 0,15 0,06 0,24 3,3 5,1 1,2 1,2
  0,08 0,35 0,27 0,30 0,1 0,3 0,5 0,8
  0,22 0,33 0,05 0,40 2,2 1,8 0,5 3,0
  0,62 0,12 0,08 0,18 1,8 0,8 0,6 0,5
  0,26 0,14 0,50 0,10 3,7 2,1 1,2 1,5
  0,14 0,33 0,27 0,26 0,2 0,1 0,5 1,5
  0,18 0,03 0,64 0,15 2,5 1,4 0,7 2,2
  0,37 0,18 0,06 0,39        
  0,25 0,15 0,33 0,27 1,8 1,2 0,8 0,5
  0,09 0,44 0,28 0,19        
  0,66 0,15 0,15 0,04 3,4 5,8 1,3 2,5
  0,22 0,05 0,16 0,57 0,5 0,3 0,2 0,8
  0,53 0,24 0,15 0,08 7,6 2,1 1,5 8,3
  0,18 0,22 0,25 0,35 2,8 3,5 4,8 1,3

 

1.3.2. Маємо два немарковських дискретних джерела інформації з алфавітами X = { x 1, x 2, x 3} та Y = { y 1, y 2}. Чисельні значення ймовірностей p ( xi, yk) сумісного виникнення символів на виходах джерел для різних варіантів наведені у таблиці 1.3.2. Чому дорівнює ентропія системи цих двох джерел? Яке з цих джерел має більшу надмірність? Чи є джерела статистично незалежними?

Таблиця 1.3.2

№ варіанта p (x 1, y 1 ) p (x 1, y 2 ) p (x 1, y 3 ) p (x 2, y 1 ) p (x 2, y 2 ) p (x 2, y 3 )
  0,15 0,08 0,25 0,30 0,16 0,06
  0,12 0,04 0,24 0,18 0,06 0,36
  0,33 0,11 0,06 0,06 0,11 0,33
  0,05 0,08 0,11 0,36 0,25 0,15
  0,22 0,28 0,04 0,06 0,15 0,25
  0,17 0,21 0,23 0,12 0,08 0,19
  0,24 0,03 0,03 0,56 0,07 0,07
  0,08 0,08 0,30 0,12 0,12 0,30
  0,12 0,33 0,05 0,24 0,15 0,11
  0,09 0,18 0,18 0,11 0,22 0,22
  0,22 0,09 0,18 0,18 0,11 0,22
  0,14 0,28 0,08 0,26 0,14 0,10
  0,42 0,12 0,06 0,28 0,08 0,04
  0,03 0,18 0,26 0,26 0,12 0,15
  0,15 0,15 0,43 0,08 0,08 0,11
  0,21 0,08 0,28 0,15 0,12 0,16
  0,16 0,05 0,04 0,24 0,06 0,45
  0,02 0,05 0,43 0,02 0,33 0,15
  0,15 0,05 0,05 0,45 0,15 0,15
  0,06 0,03 0,01 0,54 0,27 0,09

 

6.3.3. Марковське дискретне джерело інформації має алфавіт X = { x 1, x 2}. Статистичні зв’язки розповсюджуються тільки на суміжні символи (тобто глибина пам’яті h = 1). Чисельні значення умовних ймовірностей p ( xi / xk) та тривалостей символів t i ( в мі-лісекундах, мс) для різних варіантів наведені у таблиці 6.3.3. Отримати чисельні значення ентропії, продуктивності та надмірності джерела.

Таблиця 6.3.3

№ варіанта p (x 1/ x 1) p (x 2 / x 1) p (x 1/ x 2) p (x 2 / x 2) t 1 t 2
  0,53 0,47 0,25 0,75 0,1 0,3
  0,22 0,78 0,43 0,57 3,3 5,1
  0,15 0,85 0,64 0,36 2,6 1,1
  0,92 0,08 0,84 0,16 0,3 0,4
  0,62 0,38 0,24 0,76 2,3 1,4
  0,59 0,41 0,61 0,39 8,6 3,4
  0,35 0,65 0,16 0,84    
  0,55 0,45 0,97 0,03 5,4 1,5
  0,12 0,88 0,35 0,65 1,2 0,2
  0,58 0,42 0,82 0,18 2,8 3,5
  0,16 0,84 0,52 0,48 7,6 2,1
  0,64 0,36 0,83 0,17 0,5 0,3
  0,18 0,82 0,44 0,56 2,5 1,4
  0,80 0,20 0,71 0,29 3,4 5,8
  0,25 0,75 0,33 0,67    
  0,55 0,45 0,11 0,89 0,6 1,8
  0,21 0,79 0,16 0,84 1,8 1,2
  0,95 0,05 0,63 0,37    
  0,23 0,77 0,51 0,49 0,2 0,1
  0,75 0,25 0,84 0,16 3,7 2,1

6.3.4. Маємо два немарковських дискретних джерела інформації з алфавітами X = { x 1, x 2, x 3} та Y = { y 1, y 2}. Чисельні значення безумовних p (yk) та умовних p (yk / xi) ймовірностей виникнення символів на виході джерела з алфавітом Y відомі та для різних варіантів наведені у таблиці 6.3.4. Отримати чисельні значення ентропії H (X, Y) системи цих двох джерел та повної взаємної інформації I (X, Y). Яке з цих джерел має більшу надмірність?

Таблиця 6.3.4

№ варіанта p (y 1) p (y 2) p (y 3)
  0,37 0,594 0,036
  0,498 0,240 0,262
  0,5 0,24 0,26
  0,575 0,29 0,135
  0,304 0,29 0,406
  0,479 0,348 0,173
  0,206 0,168 0,626
  0,266 0,466 0,268
  0,424 0,136 0,44
  0,656 0,188 0,156
  0,257 0,504 0,239
  0,412 0,202 0,386
  0,181 0,449 0,37
  0,368 0,178 0,454
  0,532 0,082 0,386
  0,236 0,328 0,436
  0,483 0,221 0,296
  0,312 0,348 0,34
  0,168 0,286 0,546
  0,444 0,225 0,331

ЛІТЕРАТУРА

 

1. Арманд В.А., Железняков В.В. Штриховые коды в системах обработки информации. – М.: Радио и связь, 1989. – 92 с.

2. Берлекэмп Э. Алгебраическая теория кодировния. – М.: Мир, 1971. – 477 с.

3. Боккер П. Передача данных / Техника связи в системах телеобработки данных /: В 2-х томах. Т.1. Основы: Пер. с нем. / Под ред. Д.Д.Кловского. – М.: Связь, 1980. – 264 с.

4. Былянски Л., Ингрем Д. Цифровые системы передачи: Пер. с англ. / Под ред. А.А.Визеля. – М.: Связь, 1980. – 360 с.

5. Гніліцький В.В. Основи теорії інформації в задачах. Частина перша: Навч. посібник. – Житомир: ЖІТІ, 1999. – 76 c.

6. 3144-95. Державний стандарт України. Коди та кодування ін-формації. Штрихове кодування. Терміни та визначення. – Чинний з 1996 р.

7. Дмитриев В.И. Прикладная теория информации. – М.: Высш. шк., 1989. – 320 с.

8. Емельянов Г.А., Шварцман В.О. Передача дискретной информации. – М.: Радио и связь, 1982. – 240 с.





Поделиться с друзьями:


Дата добавления: 2014-10-17; Просмотров: 725; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.021 сек.