Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Уровень архитектуры команд




Висновки

 

Контрольні питання (задачі)

1. Марковське дискретне джерело інформації з алфавітом та глибиною пам’яті описується такою матрицею умовних ймовірностей виникнення символу xi при умові, що йому передував символ xk : Обчислити ентропію такого джерела.

2. Маємо два дискретних джерела з алфавітами та. Перше джерело – марковське з глибиною пам’яті h = 1. Воно описується матрицею умовних ймовірностей виникнення символу при умові, що попереднім був символ. Ймовірність виникнення символу на виході другого джерела залежить від того, який символ з’явився на виході першого джерела, тобто ці ймовірності задаються матрицею Визначити ентропію другого джерела та повну взаємну інформацію.

3. Маємо два немарковських дискретних джерела інформації з алфавітами Ймовірності появи символів на виході першого джерела Значення умовних ймовірностей виникнення символу на виході другого джерела при умові, що на виході першого з'явився символ, є такими:. Розрахувати ентропії кожного з джерел, системи двох джерел та повну взаємну інформацію.

4. Маємо два немарковських дискретних джерела інформації з алфавітами X ={ x 1, x 2, x 3} та Y ={ y 1, y 2}. Чисельні значення безумовних p (yk) та умовних p (yk/xi) ймовірностей виникнення символів на виході джерела з алфавітом Y відомі та для різних варіантів наведені у таблиці 1. Отримати чисельні значення ентропії H (X, Y) системи цих двох джерел та повної взаємної інформації I (X, Y).

Таблиця 1.

№ варіанта p (y 1) p (y 2) p (y 3)  
  0,37 0,594 0,036  
  0,498 0,240 0,262  
  0,5 0,24 0,26  
  0,575 0,29 0,135  
  0,304 0,29 0,406  
  0,479 0,348 0,173  
  0,206 0,168 0,626  
  0,266 0,466 0,268  
  0,424 0,136 0,44  
  0,656 0,188 0,156  
  0,257 0,504 0,239  
  0,412 0,202 0,386  
  0,181 0,449 0,37  
  0,368 0,178 0,454  
  0,532 0,082 0,386  
  0,236 0,328 0,436  
  0,483 0,221 0,296  
  0,312 0,348 0,34  
  0,168 0,286 0,546  
  0,444 0,225 0,331  

 

 




Поделиться с друзьями:


Дата добавления: 2013-12-12; Просмотров: 312; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.008 сек.