Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Количество информации. Информацию можно создавать, передавать (и соответственно принимать), хранить и обрабатывать




Информацию можно создавать, передавать (и соответственно принимать), хранить и обрабатывать.

Информация и формы ее представления

 

Понятие информации является основополагающим понятием информатики. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решении и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.

В рамках науки информация является первичным и неопределяемым понятием. Оно предполагает наличие материального носителя информации, источника информации, передатчика информации, приемника и канала связи между источником и приемником. Понятие информации используется во всех сферах: науке, технике, культуре, социологии и повседневной жизни. Конкретное толкование элементов, связанных с понятием информации, зависит от метода конкретной науки, цели исследования или просто от наших представлений.

Термин «информация» происходит от латинского informatio — разъяснение, изложение, осведомленность. Энциклопедический словарь (М.: Сов. энциклопедия, 1990) определяет информацию в исторической эволюции: первоначально — сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т. д.); с середины XX века — общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, обмен сигналами в животном и растительном мире (передача признаков от клетки к клетке, от организма к организму).

Информация обладает следующими четырьмя свойствами:

Информатика – это техническая наука, систематизирующая приемы создания, хранения, обработки и передачи информации средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

 

Как измерить количество информации? Для этого существует специальная теория информации, – это раздел математики, исследующий процессы хранения, преобразования и передачи информации. В ее основе лежит предложенный в 1948 году К. Шенноном способ измерения количества информации, который приводит к выражению количества информации числом. Рассмотрим его на простейших примерах.

Человек получает информацию с помощью своих органов чувств. Это аналоговая информация. Она непрерывна. Для того чтобы информацию сохранить, ее нужно закодировать. Как это делается? Любая информация хранится в виде кодов. Например, нотная запись музыки, запись речи с помощью алфавита. Некоторые используют иероглифы.

В то же время компьютер работает с цифровой информацией. Как же он различает буквы? В нем используется двоичный код. По-английски двоичный знак звучит как binary digit. Сокращенно получается бит.

Бит – это наименьшая единица информации, которая выражает значение Да или Нет и обозначается двоичным числом 0 или 1.

Пример. Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность и неопределенность исчезает (становится равной нулю).

Бит — минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.

В качестве других моделей получения такого же количества информации могут выступать электрическая лампочка, двухпозиционный выключатель, магнитный сердечник, диод и т. п. Включенное состояние этих объектов обычно обозначают цифрой 1, а выключенное — цифрой 0.

Рассмотрим систему из двух электрических лампочек, которые независимо друг от друга могут быть включены или выключены. Для такой системы возможны следующие состояния:

Лампа А 0 0 1 1

Лампа В 0 1 0 1

Чтобы получить полную информацию о состоянии системы, необходимо задать два вопроса типа «да-нет» — по лампочке А и лампочке В соответственно. В этом случае количество информации, содержащейся в данной системе, определяется уже в 2 бита, а число возможных состояний системы — 4. Если взять три лампочки, то необходимо задать уже три вопроса и получить 3 бита информации. Количество состояний такой системы равно 8 и т. д.

Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:

i=log2N,

где i — количество информации в битах; N —. число возможных состояний. Ту же формулу можно представить иначе:

N =2i.

Бит – очень маленькая величина, работать с которой малопроизводительно. Обработкой информации в компьютере занимается специальная микросхема, которая называется процессором. Эта микросхема может обрабатывать сразу несколько битов информации. Процессоры в калькуляторах 70-х гг. могли обрабатывать сразу 4 бита, поэтому их называли четырехразрядными. Один из первых в мире персональных компьютеров (Altair, 1974) был восьмиразрядным, он мог обрабатывать сразу 8 бит. Поэтому в ВТ появилась новая единица измерения информации – байт.

Байт – это группа из восьми битов.

Если бит — минимальная единица информации, то байт ее основная единица. Существуют производные единицы информации: килобайт (кбайт, кб), мегабайт (Мбайт, Мб) и гигабайт (Гбайт, Гб).

1 кб =1024 байта - 210 (1024) байтов.

1 Мб = 1024 кбайта = 220(1024 x 1024 = 1048576) байтов.

1 Гб = 1024 Мбайта - 230 (1024х1024 х 1024)байтов.

Эти единицы чаще всего используют для указания объема памяти ЭВМ.

 

Одним битом можно закодировать два значения Да и Нет (1 и 0). Двумя битами можно закодировать уже 4 значения,: 00, 01, 10,11. Тремя битами – 8 значений. А если битов I, то количество значений, которое можно закодировать, равно N=2I. Поэтому 1 байтом можно закодировать 28=256 значений. Таким образом, осталось договориться, каким именно кодом (от 0 до 255) закодировать разные буквы, цифры, знаки препинания. Поскольку языков в мире много. Договорились так. Первую половину (128 кодов от 0 до 127) назвали таблицей ASCII и стандартизовали для всех стран и народов. А вторую половину отдали на откуп самим странам. В России содержание этой второй половины может подчиняться четырем различным стандартам.




Поделиться с друзьями:


Дата добавления: 2017-01-13; Просмотров: 404; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.011 сек.