Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Формула Шеннона




Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения «орла» и «решки» будут различаться.

Рассмотрим еще один пример: в коробке имеется 50 шаров из них 40 белых и 10 черных. Очевидно, вероятность того, что при вытаскивании «не глядя» попадется белый шар больше, чем вероятность попадания черного.

Сделанное нами качественное заключение о вероятностях событий в рассмотренном примере – интуитивно понятно. Однако вероятность может быть выражена количественно.

В нашем примере: обозначим рч вероятность попадания при вытаскивании черного шара, рб - вероятность попадания при вытаскивании белого шара; тогда: рч = 10/50 = 0.2, рб = 40/50 = 0.8; отсюда – вероятность попадания белого шара в 4 раза больше, чем черного.

Из рассмотренного примера можно сделать вывод: если N – это общее число возможных исходов какого-то процесса (вытаскивания шара, получения оценки и т.д.), и из них интересующее нас событие (вытаскивание белого шара, получение пятерки) может произойти K раз, этого события равна K/N.

Вероятность выражается в долях единицы. В частном случае, вероятность достоверного события равна 1 (из 50 белых шаров вытащен белый); вероятность невозможного события равна нулю (из 50 белых шаров вытащен черный шар).

Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Формулу для вычисления количества информации для событий с различными вероятностями предложил К. Шеннон в 1948 году. В этом случае количественная зависимость между вероятностью события (р) и количеством информации в сообщении о нем выражается формулой:

(2).

В нашем примере: количество информации в сообщении о попадании белого шара и черного шара:

бит;

бит.

Удобнее в качестве меры количества информации пользоваться не значением i, а средним значением количества информации, приходящейся на реализацию одного из возможных событий:

(3).

где I — количество информации,

N — количество возможных событий,

pi — вероятности отдельных событий.

В нашем примере: количество информации, которое мы получим в сообщении о попадании белого шара или черного шара (после реализации одного из возможных событий):

Для частного, но широко распространенного и рассмотренного выше случая, когда события равновероятны (рi = I/N), величину количества информации I можно рассчитать по формуле:

(4).

В рассмотренном выше примере, изменив условия следующем образом: в коробке лежат 50 пронумерованных шаров одинакового цвета; количество информации, которое мы получим при сообщении “достали шар с номером 25” определим по формуле

I = Iog250 = 5,64386 бит.

Таким образом, когда события равновероятны, мы получим большее количество информации (5,64386 бит), чем когда события неравновероятны (2,282892 бит).

Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.

Примеры:

1. В корзине лежат 32 клубка шерсти. Среди них – 4 красных. Сколько информации несет сообщение о том, что достали клубок красной шерсти?

Дано: N=32, K=4

Решение:

1. Найдем вероятность события – попал красный клубок шерсти: рк=4/32=1/8

2. По формуле (2) определим количество информации, которое несет сообщение «достали красный клубок шерсти» бит.

Ответ: сообщение «достали красный клубок шерсти» несет 3 бита информации.

 

2. В коробке лежат 64 цветных карандаша. Сообщение о том, что достали белый карандаш, несет 4 бита информации. Сколько белых карандашей было в корзине?

Дано: N=64, i =4

Решение:

1. Найдем вероятность события – попал белый карандаш: рб=К/64

2. По формуле (2) составим следующее выражение

3. По определению логарифма: 24=64/К -> 16K=64 -> K=4

Ответ: в коробке с цветными карандашами 4 белых карандаша.

 




Поделиться с друзьями:


Дата добавления: 2014-01-11; Просмотров: 386; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.01 сек.