Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Количественная мера информации




КОРОЛЕВ Валерий Иванович

Методические указания

ЭНТРОПИЯ И ИЗБЫТОЧНОСТЬ ИСТОЧНИКА ИНФОРМАЦИИ

ОСНОВЫ ЦИФРОВОЙ РАДИОСВЯЗИ

Составители: ПЬЯНЗИН Денис Васильевич

Печатается в авторской редакции

в соответствии с представленным оригинал-макетом

 

Подписано в печать 00.12.13. Формат 60×84 1/16. Усл. печ. л. 1,4.

Тираж 100 экз. Заказ №.

Издательство Мордовского университета

Типография Издательства Мордовского университета

430005, г. Саранск, ул. Советская, 24

 

© Пьянзин Д. В., Королев В.И. 2013

(составление)

© Оформление. Издательство

Мордовского университета, 2013


ПРЕДИСЛОВИЕ

 

В современном виде теория информации – это научная дисциплина, изучающая способы передачи и хранения информации наиболее надежным и экономным методом.

Под информацией (от латинского information – разъяснение, изложение) первоначально подразумевались сведения о процессах в обществе и природе, передаваемые устно, письменно или другим способом, а также сам процесс передачи или получения этих сведений. В середине ХХ века в связи с бурным развитием науки и техники произошли изменения в трактовке понятия информации. Это понятие было расширено путем включения в него обмена сведениями не только между людьми, но и между человеком и автоматом, между автоматом и автоматом, а также обмена сигналами в животном и растительном мире.

Сама по себе информация не является материей. Материальной формой представления информации являются сообщения и сигналы. Сообщения служат для обработки, преобразования, хранения и непосредственного использования информации, а сигналы для ее передачи по каналу связи от источника к получателю (при этом информация должна быть соответствующим образом закодирована). Примеры сообщений: человеческая речь, изображение и т. д.

Для сравнения между собой различных источников сообщений необходимо было ввести некоторую количественную меру, которая дала бы возможность объективно оценивать информацию, содержащуюся в сообщении. Такая мера впервые была введена К. Шенноном – это энтропия источника.

Данные методические указания предназначены для выполнения практических и лабораторных работ по дисциплине «Основы цифровой радиосвязи» и «Основы цифрового телевидения».

 


 

Как известно, любая информация может быть получена только в результате опыта. Под «опытом», в данном случае, будем понимать, например, просмотр телепередач, визуальное наблюдения какого-либо события, измерение некоторого параметра экспериментального процесса тем или иным прибором и т. п. При этом до проведения опыта должна существовать некоторая неопределенность в том или ином его исходе, т.к. если получателю заранее известно, какое сообщение он получит, то, получив его, он не приобретет ни какого количества информации. Таким образом, до опыта всегда имеется большая или меньшая неопределенность в интересующей нас ситуации. После опыта (после получения информации) ситуация становится более определенной и на поставленный вопрос можно ответить либо однозначно, либо число возможных ответов уменьшится и, следовательно, уменьшится существовавшая ранее неопределенность. Количество уменьшенной неопределенности после опыта, очевидно, можно отождествить с количеством полученной информации.

Таким образом, чтобы установить формулу для вычисления количества информации I необходимо уметь вычислять неопределенность некоторой ситуации до и после опыта.

Предположим вначале, что после проведения опыта неопределенность отсутствует. Примером такой ситуации может служить бросание монеты, когда возможны две ситуации: выпадет «орел» или «цифра». Пусть после проведения опыта неопределенности исхода нет – выпал «орел». В этой ситуации к количеству информации (или, что-то же самое, к количеству неопределенности до опыта) можно предъявить следующие требования:

1. Количество получаемой информации больше в том опыте, у которого большее число возможных исходов n:

(1)

2. Опыт с единственным исходом несет количество информации, равное нулю:

(2)

3. Количество информации от двух независимых опытов должно равняться сумме количеств информации от каждого из них

, (3)

так как опыт, объединяющий два опыта с исходами n 1 и n 2 имеет (n 1n 2) исходов.

Очевидно, что единственной функцией аргумента n, удовлетворяющей трем поставленным условиям, является логарифмическая функция (логарифм единицы равен нулю; логарифм произведения равен сумме логарифмов сомножителей) Тогда выражение количества информации от опыта с n исходами при условии, что после опыта неопределенность отсутствует, имеет следующий вид:

, (4)

где c и a – некоторые постоянные.

При получении формулы (4) не различали исходы опыта по степени их возможности наступить, т. е. маловероятный исход опыта не отличали от исхода опыта имеющего большую вероятность. Поэтому исходы опыта в (4) следует считать равновероятными, т. е. вероятность любого исхода равна (равномерное распределение вероятностей). Учитывая это, представим формулу (4) в следующем виде:

(5)

Выбор постоянной с и основания логарифма здесь несущественен, так как переход от одной системы логарифмов к другой сводится лишь к простому изменению масштаба I. Поэтому для простоты, полагают с = 1, а с учетом того, что на практике удобнее всего пользоваться логарифмами с основанием а = 2 (это хорошо согласуется с двоичной системой счисления), то выражение (5) приобретает следующий вид [7]:

(6)

В данном случае единицу количества информации называют бит (ом). Как видно из (6), бит есть количество информации, получаемое в результате опыта с двумя равновероятными исходами. В дальнейшем по тексту, если не оговорено, то под символом log,будем понимать двоичный логарифм.

Формула (6) изменится, если исходы опыта не обладают равной вероятностью. Пусть у опыта Х имеется n исходов x i с соответствующими вероятностями наступления pi (i = 1, 2,…,n) и . В этом случае количество информации о том, что наступил исход x i, является уже случайной величиной:

(7)

Пример 1. В городе 25% населения составляют студенты. Среди студентов 50% юношей. Всего же юношей в городе 35%.

Сколько дополнительной информации содержится в сообщении, что встречный юноша – студент?

Решение: обозначим событие «встречен юноша» через х 1, а событие «встречен студент» через х 2. По теореме умножения вероятность совместного наступления событий х 1 и х 2 (вероятность совместного наступления двух событий равна произведению одного из них на условную вероятность другого, вычисленную при условии, что первое имело место; при этом безразлично какое событие произошло первым) равна:

 

По условию задачи Р (х 1) = 0,35; Р (х 2) = 0,25; Р (х 1| х 2 ) = 0,5. Подставив эти значения в предыдущую формулу, найдем вероятность того, что встреченный юноша – студент:

 

Искомое количество информации:

 




Поделиться с друзьями:


Дата добавления: 2015-07-02; Просмотров: 2486; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.009 сек.