КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Понятия бита, байта
Вероятностная мера Общая оценка количества информации, названная вероятностной мерой, была разработана американским инженером-связистом и ученым Клодом Шенноном в 1948 г в известных работах по теории информации. С этого времени началось интенсивное развитие теории информации вообще и углубленное исследование вопроса об измерении ее количества в системах телекоммуникации в частности. Формула Шеннона . Здесь: I – количество информации, получаемое в результате проведения опыта; N – общее количество исходов в опыте; pi – вероятность i-го исхода. Если вероятности всех исходов в опыте равны p1 = p2 =... = pn = 1/N (бросание монеты, игрального кубика, вытаскивание карты из колоды и т.п.), то формула Шеннона превращается в формулу Хартли (1928 г.): I = log2N. Как видно, в результате произведенных выкладок получилась уже известная нам логарифмическая мера. Таким образом, по формуле Шеннона под количеством информации понимается уменьшение неопределенности о состоянии какой-либо системы. Известны различные формы представления информации. Однако, электронно-вычислительная машина – это техническое устройство, основанное на работе электронных компонентов, а значит, обладающее определенными физическими характеристиками. Поэтому, информация, предназначенная для ЭВМ, должна иметь физическое представление, причем это представление должно быть наиболее простым. Этим требованиям отвечает, так называемое, битовое представление информации, основанное на двоичной системе счисления, при котором каждая запоминаемая частица может принимать только два значения - либо 0, либо 1. В технических устройствах двоичная система счисления используется для обозначения систем с двумя возможными состояниями. Например:
1 - есть отверстие, 0 - нет отверстия; 1 - включено, 0 - выключено; 1 - есть напряжение, 0 - нет напряжения. Причем каждая двоичная цифра содержит один бит информации. За единицу информации 1 бит (binary digit – двоичная единица) принимается количество информации, получаемое в результате проведения опыта, состоящего в выборе одного из двух равновероятных исходов. Бит действительно является очень маленьким объемом хранения информации, содержащим всего два состояния: 0, 1. Если объединить два бита в одно целое, то в таком объеме можно хранить уже 4 состояния: 00, 01, 10, 11. Если объединить три, то появляется возможность для хранения еще большей информации: 000, 001, 010, 011, 100, 101, 110, 111. И так далее. Таким образом, объем информации, записанной двоичными знаками (0 и 1) в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. Например, восьмиразрядный двоичный код 11001011 имеет объем данных V= 8 бит. Чтобы было нагляднее, изобразим это в таблице:
На практике чаще применяется более крупная единица измерения – байт (1 байт = 8 бит), а также производные от него единицы измерения информации. Для измерения больших объемов информации используются следующие единицы: 1 Кб (один килобайт)= 1024 байт=210байт Следует обратить внимание, что в системе измерения двоичной (компьютерной) информации, в отличие от метрической системы, единицы с приставками «кило», «мега» и т. д. получаются путем умножения основной единицы не на 103= 1000, 106= 1000 000 и т. д., а на 210 , 220 и т. д.
Дата добавления: 2014-10-17; Просмотров: 775; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |