КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Теория информации
Цель работы Изучение вероятностного подхода к понятию количества информации. Исследование зависимости между вероятностью появления символа источника информации и его энтропией. Получение и закрепление навыков работы в MS Excel.
Указания к выполнению работы Определения и формулы Количество информации – это количество сведений, содержащихся в том или ином информационном элементе (в символе кода или сообщении). Единица количества информации - двоичная единица информации или бит. В статистической теории информации в качестве меры количества информации используют энтропию. Энтропия – мера неопределенности состояния системы. Энтропия сообщения (или энтропия источника сообщений) – это количество информации, в среднем приходящееся на каждое из М сообщений с вероятностями (i =1, 2,…,M). Энтропия источника символов – это количество информации, в среднем приходящееся на каждый из К символов, появляющихся на выходе кодирующего устройства с вероятностями ( – i -тый символ алфавита, i =1, 2,…,K).
Энтропия ансамбля из N событий, имеющих вероятности (i =1, 2,…,N), равна: (*) Указанная величина обладает следующими основными свойствами: 1) Энтропия является вещественной и неотрицательной величиной; 2) Энтропия – величина ограниченная; 3) Энтропия обращается в нуль, только если вероятность одного из состояний равна единице. При этом вероятности всех остальных состояний будут равны нулю; 4) Максимального значения энтропия достигает при равновероятных событиях. При этом она равна: (**) 5) Энтропия объединения нескольких статистически независимых источников информации равна сумме энтропий исходных источников.
Задания к лабораторной работе
1 задание: Для заданного русского текста вашего варианта (количество символов в тексте М=90-110)
а) Алфавит источника русских букв (исходя из заданного текста); б) Количество(K) источника русских букв (количество букв в полученном алфавите); в) Количество появлений каждой i -ой буквы в тексте - ; г) Определите для каждой буквы алфавита частоту ее появления по следующей формуле: ; д) Для каждой буквы алфавита найти значение энтропии (количества информации содержащееся в i-ой букве) по формуле: ; е) Энтропию источника русских букв по формуле: ; ж) Энтропию источника русских букв при условии, что появление всех символов равновероятно.
Все вычисления по лабораторной работе и график выполнять в программе Microsoft Excel.
Примерный вид расчетной таблицы:
В ячейке С21 формула = СУММ(С3:С20) В ячейках D3-D20 формула = Cx/C21 (x – меняется от 3 до 20) В ячейке D21 формула = СУММ(D3:D20) В ячейках E3-E20 формула =-log(Dx;2) (x – меняется от 3 до 20) В ячейках F3-F20 формула =Ex*Dx (x – меняется от 3 до 20) В ячейке F21 формула = СУММ(F3:F20)
Варианты заданий
1. Слово информация заимствовано из латинского языка и в дословном переводе означает «изложение», «разъяснение». 2. Закон признает информацией сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления. 3. Семантической информацией называют информацию, содержащуюся в высказываниях и передаваемую через значения единиц речи. 4. Измерительной информацией называют информацию о значениях физических величин, а также данные о погрешности измерений. 5. Ключевой информацией называют такие новые сведения, которые не могут быть подсказаны ни контекстом, ни ситуацией. 6. Документальная информация закрепляется посредством какой-либо знаковой системы на бумаге или ином материальном носителе. 7. Генетическая информация определяет морфологическое строение, рост, развитие, обмен веществ, а также иные признаки организма.
2 задание: Чему равна энтропия системы, состояние которой описывается дискретной величиной со следующим распределением вероятностей.
Дата добавления: 2015-07-02; Просмотров: 908; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |