Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Понятие информации, ее измерение и свойства

 

Понятие «информация» (от лат. Information – «сведение», «разъяснение», ознакомление) является базовым. Его определение нельзя дать через другие, более просты понятия.

В широком смысле информация – сведения об объектах, процессах реального мира, их свойствах, состояниях и отношениях, которые уменьшают имеющуюся в знаниях о них степень неопределенности или неполноты.

В простейшем бытовом понимании это некоторые сведения, данные и т.п.

В информатике под информацией понимают некоторую последовательность символических обозначений (букв, цифр, образов, звуков и т.п.), которые несут смысловую нагрузку и представлены в понятном для компьютера виде.

 

В определении количества информации существуют два подхода.

Вероятностный (энтропийный) подход, который учитывает ценность информации для получателя. Получатель сообщения имеет определенные представления о возможных наступлениях некоторых событий. Эти представления недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшается эта мера после получения сообщения.

Р. Хартли предложил в качестве меры неопределенности логарифм от числа возможностей: H= k log a m, где

k – коэффициент пропорциональности;

m – число возможных выборов;

a – основание логарифма.

При k =1 и a =2 получим выбор из двух возможностей. Такая единица называется бит.

К.Шеннон обобщил формулу для случая, когда вероятности различных исходов опыта неодинаковы:

Объемный подход, который принят в технике. Бит – один символ двоичного алфавита – минимальный объем информации. 1 байт=8бит.

1 килобайт = 210 байт

1 мегабайт = 210 килобайт

1 гигабайт = 210 мегабайт

1 терабайт = 210 гигабайт

 

Общая схема передачи информации:

· источник информации;

· канал передачи информации;

· получатель информации.

 

Для удобства передачи информации, для ее хранения применяется кодирование – выражение данных одного типа через данные другого типа.

 

С точки зрения информации наиболее важными являются свойства:

· объективность (более объективна та информация, методы которой менее подвержены субъективным характеристикам);

· полнота (характеризует качество, определяет достаточность данных для принятия решения или создания новых данных на основе уже имеющихся);

· достоверность (уменьшается с уменьшением полноты информации);

· адекватность (соответствие объекту или явлению);

· доступность (мера возможности получить конкретную информацию);

· актуальность (степень соответствия информации текущему моменту времени);

· защищенность (невозможность несанкционированного использования или изменения).

 

Информатика изучает процессы сбора, хранения и переработки информации, компьютер же является основным инструментом в этом процессе.

Назначение компьютера – принимать, перерабатывать, хранить и выдавать информацию (числовую, символьную, графическую, звуковую…), которую компьютер воспринимает через свои периферийные устройства и устройства ввода.

Поскольку в конечном итоге вся информация в компьютере представлена в числовой форме, то можно сказать, что компьютер предназначен для обработки чисел, т.е. вычислений («компьютер» переводится как «вычислитель»).


<== предыдущая лекция | следующая лекция ==>
Структура информатики | Из истории вычислительной техники
Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 1262; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.014 сек.