КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Информация как степень неопределенности
Информация в общем случае передается словами разной длины. Количество информации определяется не по ее смысловой ценности, а по длине слова. Пусть из алфавита A = {a1;a2;…;am} формируются слова из n букв (x1;x2;…;xn), которые передаются по каналу сообщения. Ясно, что из m символов можно образовать N слов длиной в n букв: N=mn- это число перестановок с неограниченными повторениями. Пусть любое из них равновероятно, т.е. p = 1/N. Тогда неопределенность получения заданного слова растет с ростом N и тем больше информации должно содержаться в конкретном исходе. Число N является мерой информации. Эта мера не обладает свойствами аддитивности, что неудобно при конструировании формальных систем с поведением. Если перейти к логарифмической шкале отсчета, то свойство аддитивности выполняется (логарифмическая линеаризация): J = log N при N = mn имеем J = n*log m. Удельная информация, содержащаяся в одном символе. определяется как H = J/n = log m. Если m = 2, то каждый символ будет передаваться как система кодов в виде цепочки символов, состоящей из нулей и единиц. Каждый разряд несет log22 = ld2 = 1 одну единицу информации, называемую битом или двоичной единицей информации. При m = 10 единица информации называется дитом: 1 дит = lg10 = ld2x = 3.32 бит. Примеры 1. Для трафарета 5 ´ 7 определить число бит информации, содержащейся при высвечивании одного символа. Так как число ячеек 35, каждая из которых несет один бит информации, то получаем в сумме 35 бит информации. 2. Для телевизионного кадра имеем 625 строк, в строке 600 точек, в каждой точке 8 градаций черного; имеем: I = 625*600*ld8 = 625*600*3 = 1.125*106 бит. Если вероятности передачи сигналов произвольны, то переходим к формулам К. Шеннона. Информативность передачи одного символа определяется как математическое ожидание логарифмических составляющих: h = = M[log Pi] = SPi * log(1/Pi), т.е как среднее значение частных энтропий. Величина PiÎ[0,1]. Чем меньше Pi, тем больше частная энтропия hi. При Pi=1 частная энтропия равна 0. О характере функции hi = f(Pi) = Pi * ld (1/Pi) можно судить по следующему дискретному ряду ее значений:
В случае бинарных сообщений из частных энтропий hi общая энтропия определяется из соотношения: H = h(p1) + h(p2) при p1 + p2 = 1, т.е. H = -p1*ld p1– (1-p1)*ld (1-p). Кривая H симметрична относительно точки p1 = 0.5.
Графики составляющих функций H приведены на рис. П.2.1. Упражнение 1. В табл. П.2.1. приведены данные xср, определяющие код последовательного эксперимента по учету посещения занятий студентом; xср определяет относительную степень посещаемости xсрÎ [0;1]. Определить характер кривой H = f (xср). Предложить интерпретацию получаемого результата для данной задачи. 2. В табл. П.2.1 имеется оценка априорных знаний студента, определяемая по его зачетке: yср Î [3;5]. Требуется нормировать значение yср на [0;1] и оценить, подобно xср, характер изменения энтропийной меры в этом случае.
Дата добавления: 2014-12-07; Просмотров: 612; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |