Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Статистическая мера информации. Примеры формирования кодовых комбинаций цветовых оттенков в цветовой палитре с глубиной цвета 24 бита




Примеры формирования кодовых комбинаций цветовых оттенков в цветовой палитре с глубиной цвета 24 бита

Используется модель RGB,

на каждую составляющую отводится по 8 бит.

Минимальное значение кодовых комбинаций составляющих модели 00000000.

Максимальное значение кодовых комбинаций составляющих модели 11111111.

Кодовая комбинация ярко-красного цвета

11111111 00000000 00000000

R G B

 

Таким образом воспроизводимый цвет формируется одним из 256 уровней яркости красного цвета, одним из 256 уровней яркости зеленого, и одним из 256 уровней яркости синего цвета.

 

Примеры кодовых комбинаций серого цвета при длине кода 24

00000001 00000001 00000001 самый темный

10000000 10000000 10000000 самый светлый

00010000 00010000 00010000

00111111 00111111 00111111

 

 

Данная мера была введена в 1947 году Клодом Шенноном и является наиболее общей количественной мерой (характеристикой) информации, используемой как в синтаксическом, так и семантическом аспекте.

Для установления статистической меры применяют энтропийный (энтропия - мера неопределенности) подход, основанный на следующей модели:

Пусть некоторый субъект имеет неполное представление об исследуемом объекте. В качестве меры неопределенности представления субъекта вводится величина, называема энтропией и обозначаемая Н.

Значение энтропии может менять информация получаемая субъектом в форме сообщений. При этом количество информации I содержащейся в сообщении, равно:

I=H1 – H2

где H1 – энтропия представления объекта до получения сообщения, а H2 – после получения сообщения.

 

Пусть в качестве исследуемого объекта используется некоторый дискретный источник информации, под которым будем понимать систему с конечным множеством состояний. Принятие системы одного из возможных состояний будем рассматривать как случайное событие. Количество информации содержащейся в одном таком событии зависит от вероятности данного события и определяется выражением

 
 

 


где p – вероятность случайного события

Данная формула определяет статистическую меру информации. Из нее следует, что часто происходящие события содержат мало информации, а в достоверном событии информация вообще отсутствует.

Количество информации, содержащееся в конечной последовательности случайных событий ансамбля равно

 

 

где k – число событий в последовательности

4. Использование статистической меры информации в семантическом и синтаксическом аспекте Количество информации содержащемся в i-том символе алфавита равно
 
 

 


где - вероятность использования в сообщениях i-того символа алфавита

 

Количество информации содержащейся в сообщении длинной L

 
 

 

 


где – вероятность появления символа алфавита, расположенного в j-той позиции сообщения

 

Пример использования статистической меры в синтаксическом аспекте:

Пусть в сообщении использован алфавит: 1=ê6

Вероятность символов: 1/2, 1/4, 1/8 и 1/8 соответственно.

Тогда информативности символов алфавита равны:

 
 

 

 


а информативность сообщения <<1=ê6>> - 9 бит

 

Если все символы равновероятны, то статистическая мера в синтаксическом аспекте будет иметь максимально возможное значение и совпадать с мерой Хартли.

 




Поделиться с друзьями:


Дата добавления: 2015-04-24; Просмотров: 689; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.