Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Понятие энтропии




Данные

Сигнал

Информация. Количество и качество

Информация – это содержание сообщения, сигнала, памяти, а также сведения, содержащиеся в сообщении, сигнале или памяти.

Термин «информация» – один из самых популярных в нашем лексиконе. Мы вкладываем в него весьма широкий смысл, и пояснить его можем, как правило, на интуитивном уровне. Информация поступает по телефону, ее переносят телеграф, радио, телевидение. Она записывается на магнитных лентах и фоточувствительной бумаге, передается человеческой речью, распространяется в виде газет, журналов, книг. Информацию хранят в библиотеках, архивах, базах данных, ее сообщают нам измерительные приборы, вкус пищи, запахи, вид звездного неба.

В широко принятом смысле информация – это сведения, знания, сообщения, являющиеся объектом хранения, передачи, преобразования и помогающие решить поставленную задачу. Информация – это новые сведения, которые могут быть использованы человеком для совершенствования его деятельности и пополнения знаний.

Сигнал — физический процесс, имеющий информационное значение, установленное принятым соглашением. В обычной жизни под сигналом понимают физический процесс, который человек легко воспринимает — звук, свет.

Сигналы заметно выделяются среди других шумов: звук должен быть громким или резким, свет – ярким, специфическим по цвету или мигающим. Сигналы имеют простой, но важный смысл. Всем известно, что сирена – звуковой сигнал тревоги или аварии: свисток судьи означает начало или конец игры; красный и зеленый свет светофора разрешает или запрещает движение транспорта.

В информатике и технике связи термин "сигнал" употребляется в более общем смысле – как любой процесс, несущий информацию.

Он может иметь произвольную физическую природу: механическую (движение, давление), тепловую, световую, электрическую, акустическую. Среди параметров процесса выбирается один или несколько, значения которых должны нести информацию. Такими параметрами могут быть длительность, амплитуда, частота, яркость, цвет и т. д. Необязательно, чтобы физически различные значения выбранного параметра соответствовали различной информации. Например, в сигнализации на транспорте информационный смысл имеют три значения цвета светофора: красный, желтый и зеленый. Разные оттенки красного или зеленого не играют роли.

Так как информацию можно хранить, преобразовывать и передавать, должны быть носитель информации, передатчик, канал связи и приемник. Эта среда объединяет источник информации и получателя в информационную систему. Активными участниками этой системы не обязательно должны быть только люди: обмен информацией может происходить в животном и растительном мире. Когда речь идет о человеке как участнике информационного процесса, имеется в виду смысловая или семантическая информация, т. е. та, которая выражается человеком.

Данныеэто величины, их отношения, словосочетания, факты, преобразование и обработка которых позволяет извлечь информацию, т. е. знание о том или ином предмете, процессе или явлении. Иными словами, данные служат сырьем для создания информации, полученной в результате обработки данных.

Исследованием методов передачи, хранения и приема информации занимается теория информации, инструментами которой служат теория случайных процессов, теория кодирования, математическая статистика, теория вероятностей. Внимание к проблеме передачи информации и ее количественной оценке было привлечено фундаментальными работами И. Винера и К. Шеннона, положившими начало теории информации. Основная заслуга К. Шеннона состояла в оценке пропускной способности канала связи на основе меры количества информации. По-иному стала выглядеть теория кодирования. Нельзя не упомянуть имя американского ученого Р. Хартли, предложившего в 1928 г. логарифмическую меру количества информации.

Информационные процессы, т. е. процессы передачи, хранения и переработки информации, всегда играли важную роль в жизни общества. Люди обмениваются устными сообщениями, записками, посланиями. Они передают друг другу просьбы, приказы, отчеты о проделанной работе, описи имущества; публикуют рекламные объявления и научные статьи; хранят старые письма и документы; долго размышляют над полученными известиями или немедленно кидаются выполнять указания начальства. Все это — информационные процессы.

Информация всегда связана с материальным носителем, а ее передача – с затратами энергии. Однако одну и ту же информацию можно хранить в различном материальном виде (на бумаге, в виде фотонегатива, на магнитной ленте) и передавать с различными энергетическими затратами (по почте, по телефону, с курьером и т. д.), причем последствия — в том числе и материальные — переданной информации совершенно не зависят от физических затрат на ее передачу. Например, легкое нажатие кнопки опускает тяжелый театральный занавес или взрывает большое здание, красный свет светофора останавливает поезд, а неожиданное неприятное известие может вызвать инфаркт. Поэтому информационные процессы не сводимы к физическим, и информация, наряду с материей и энергией, является одной из фундаментальных сущностей окружающего нас мира.

Математическое понятие информации связано с ее измерением. В теории информации принят энтропийный подход, который учитывает ценность информации, содержащейся в сообщении для его получателя, и исходит из следующей модели. Получатель сообщения имеет определенные представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие.

Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей.




Поделиться с друзьями:


Дата добавления: 2014-01-11; Просмотров: 830; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.