КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Количество информации
Количеством информации называется степень уменьшения неопределенности после выбора (получения) сообщения в виде некоторого сигнала. Например, если студент, первый подошедший к столу экзаменатора, тянет билет из 25 билетов, лежащих на столе, то вероятность p (возможность) того, что он вытащит билет с заданным номером равна 1/25 (одна возможность из 25), т.е. р = 1/25. После выбора билета неопределенности уже нет. Таким образом, число 25 можно было бы считать количеством информации, заложенным в одном выборе из 25 возможностей. Однако такое представление не является достаточно удобным, поскольку число возможностей в различных физических процессах может отличаться на много порядков. Р.Хартли предложил в качестве меры неопределенности логарифм от числа возможностей где k - коэффициент пропорциональности; m - число возможных выборов; а - основание логарифма. При k = 1 и а = 2 стандартной единицей количества информации будет выбор их двух возможностей. Такая единица носит наименование бита и может быть представлена одним символом двоичного алфавита, обычно 0 или 1. Количество информации определяется как разность неопределенности до получения сообщения и после. Если после получения сообщения неопределенность устраняется полностью, то формулы для определения количества информации и неопределенности совпадают. Клод Шеннон обобщил формулу неопределенности на случай, когда Н зависит не только от m, но и от вероятностей выбора символов и вероятностей связи между ними. Так, для количества сообщенной или индивидуальной информации он предложил соотношение где Рi - вероятность выбора i-го символа алфавита. Удобнее в качестве количества информации пользоваться не значением hi, а средним значением количества информации, приходящейся на один символ алфавита: Для непрерывного сигнала эта формула приобретает вид: где p(x) - плотность распределения вероятности. Контрольные задания 1.1. Дайте определение информатики как базовой учебной дисциплины. 1.2. Определите структуру дисциплины информатики и ее основные задачи. 1.3. Если область экрана имеет размеры 512x128 точек и каждая точка может иметь один из 256 оттенков, то каков минимальный объем памяти (Кбайт), необходимый для хранения этой области. 1.4. Дайте характеристику основных научных направлений, входящих в информатику. 1.5. Определить число бит, необходимых для записи числа 812. 1.6. Дайте определение понятия информации. 1.7. Сколько бит информации требуется для хранения в памяти ЭВМ слова ИНФОРМАТИКА? 1.8. Каковы формы представления информации? 1.9. Дайте определение понятия количества информации. 1.10. Приведите основные формулы для определения количества информации и поясните их смысл. Глава 2. Компьютер как средство обработки информации
Дата добавления: 2014-11-20; Просмотров: 563; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |