Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Количественная мера информации

Учебные вопросы занятия.

Лекция 3 Понятие энтропии дискретных и непрерывных событий

ЛЕКЦИЯ

Защиты информации

Вопрос №3. Стационарные случайные процессы

В информационных системах очень часто встроены случайные процессы протекающие во времени приблизительно одинаково. Эти процессы имеют вид непрерывных колебаний около некоторого среднего значения причем ни характер колебания, ни само среднее значение не изменяется во времени - такие случайные процессы называются стационарными.

Процесс колебания напряжения в сети.

В динамических системах случайные процессы начинаются с так называемого переходного процесса, а затем переходит в установившийся режим, который можно назвать стационарным.

Стационарное понятие случайного процесса в узком смысле случайный процесс для которого функция распределения плотности вероятности произвольного порядка m не меняется при сдвиге всей группы точек вдоль оси времени. Для одномерного закона w1(x1 , t1) = w1(x1 , t1+ t.) Для двумерной функции распределения плотности вероятности

w(x1 t1, x2 , t2) = w(x1 ,x2 t2- t1 ) = w(x1 , x2, t.)

Поскольку математическое ожидание и дисперсия выражается через одномерный закон распределения плотности вероятности, то можно сделать заключение, что m и d не зависят от времени. Поскольку двумерная плотности распределения вероятности зависит от рзаности между моментами времени t1 и t2 то корреляционная функция случайного процесса зависит от длительности t.

Стационарным процессом в широком смысле называется случайные процессы, у которых математическое ожидание и дисперсия не зависят от времени, а корреляционная функция зависит от разности времени t.

A[x(t)] = A(x)

D[x(t)] = D(x)

Kxx (t1 t2 ) = Kxx (t)

 

по учебной дисциплине "Теория информации "

для студентов специальности 075500 (090105) – Комплексное обеспечение информационной безопасности автоматизированных систем

 

 

 

Ставрополь 2009 г.

 

Цель занятия: Изучить общие понятия количества информации и энтропии как меры неопределенности источника сообщений. Ознакомиться с основными свойствами энтропии дискретного источника. Изучить энтропию сложных сообщений.

 

  1. .Колчественная мера информации
  2. Энтропия сложных сообщений
  3. Понятие энтропии непрерывных событий

 

 

В процессе передачи сообщения могут подвергаться различным преобразованиям существенно меняющим их физическую природу. Однако информация и ее количество должны оставаться инвариантными при всех преобразованиях. Сообщение принимаемое на приемной стороне несет информацию лишь в том случае, если имеется неопределенность относительно состояния источника сообщений. Пусть имеется источник который может передавать n независимых сообщений X1... Xn c вероятностями Р(х1)...Р(хn). Естественно чем меньше априорная вероятность появления сообщения Хi на выходе источника сообщения, тем большее количество информации оно несет. Поэтому естественно предположить, что количественная мера неопределенности одного сообщения обратно пропорциональна вероятности сообщения, т.е. 1/ Р(хi).

Однако такая мера неудобная тем, что в том случае если вероятность появления сообщения равна единице, то количество информации равно единице. В действительности при передаче такого сообщения количество информации равно нулю.

Кроме того данная мера не обладает свойством аддитивности, т.е. если имеет место сложное сообщение состоящее из двух независимых сообщений Xi и Yj, то вероятность такого совместного события будет равна произведению вероятностей появления этих сообщений, т.е. Р(Xi)Р(Yj), тогда количество информации должно оцениваться как 1/ Р(Xi)Р(Yj). Поэтому наиболее удобной мерой для оценки количества информации является логарифмическая мера

I = loga(1/ Р(Xi)) (1)

При такой мере информационная передача сообщения Xi с вероятностью 1 не несет никакой информации. Для данной меры выполняется свойство аддитивности. При этом количество информации в сложном сообщении, представляющем совокупность событий Xi и Yj будет равно

Выражение (1) характеризует количество информации содержащейся в сообщении Xi, но данное выражение также характеризует априорную неопределенность сообщения Xi.

H(Xi) = loga(1/ Р(Xi)) (2)

Величину Н называют частной энтропией. Несмотря на совпадение (1) и (2) количество информации I и величина Н качественно различны.

Энтропия выражает неопределенность источника сообщения и если известна априорная вероятность появления сообщений, то может быть вычислена до получения сообщения.

Количество информации может быть вычислено лишь апостериорно. Энтропия есть мера недостатка информации о состоянии системы, которая снимается с поступлением информации.

(3)
Количество информации для всего источника сообщения будет определено по следующей формуле (3)

(4)
 
 

Энтропия источника сообщений определяется выражением (4)

Единицы измерения количества информации и энтропии зависят от выбора основания логарифма в выражениях представленных выше.

При анализе информационных процессов в ЭВМ и других устройствах, функционирующих на основе двоичной системы счисления, целесообразно использовать основание равное двум. При этом количество информации измеряется в битах (для десятичной системы счисления – единица измерения диты).

<== предыдущая лекция | следующая лекция ==>
Вопрос №2. Числовые характеристики случайного процесса | Энтропия сложных сообщений
Поделиться с друзьями:


Дата добавления: 2014-01-13; Просмотров: 426; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.011 сек.