КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Формула Хартли
Энтропия На самом деле, по формуле Шеннона мы находим значение энтропии. Энтропия – это мера неопределённости ситуации. Чем большее количество разных событий мы ожидаем, тем энтропия выше (то есть, тем больше неопределённость, какое же из ожидаемых событий действительно произойдёт). Количество получаемой нами информации равно величине снимаемой этой информацией неопределённости. То есть, количество информации = размер устранённой энтропии Ввиду этого равенства мы можем утверждать, что по формуле Шеннона мы находим как энтропию, так и количество информации, необходимое для устранения этой энтропии. Ожидаемые события могут быть равновероятны или не равновероятны. В нашей задаче с шарами события не равновероятны: белых шаров больше и вероятность того, что будет вынут белый шар, выше. Если в формуле Шеннона все pi будет равны между собой (если все события равновероятны), тогда формула (1) превратится в формулу Хартли: где I – количество информации (в битах) или энтропия до наступления события; n – общее количество ожидаемых равновероятных событий. Задача. Уровняем шансы: перекрасим 5 белых шаров в красный и ещё 5 белых шаров в синий цвет. Тогда в мешке будет 20 белых, 20 красных и 20 синих шаров. Выясним теперь, сколько информации мы получим, если узнаем, какого цвета наугад вынутый шар. Решение. Можно было бы вести расчёт по формуле (1), но поскольку в данном случае события равновероятны, воспользуемся формулой (2). В нашем случае возможны три исхода: 1) либо достали белый; 2) либо достали красный; 3) либо достали синий. То есть, n = 3. Видим, что величина исходной энтропии увеличилась (соответственно увеличилось количество информации, получаемой при устранении исходной энтропии). Действительно, когда у нас белых шаров было больше, мы заранее могли предполагать, что будет вынут белый шар. А теперь мы находимся в большей неопределённости: ничего заранее предполагать не можем. Вывод: Энтропия выше в том случае, если ожидаемые события равновероятны. Или иными словами: при наступлении события мы получаем информации больше в том случае, если ожидаемые события равновероятны.
Дата добавления: 2014-01-07; Просмотров: 1792; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |