Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Концепции информации




В настоящее время, как я уже сказала, существует множество подходов к определению информации, некоторые из них являются по своей сути концептуальными. В качестве справки выделим наиболее распространенные концепции информации, каждая из которых по своему объясняет ее сущность.

Первая концепция (концепция К.Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события.

Теория информации начинается с работ К. Шеннона, опубликованных в конце 40-х годов XX в., в которых под информацией понимались не любые сообщения, а лишь те, которые уменьшают неопределенность у получателя этого сообщения. Неопределенность же, по воззрениям К. Шеннона, существует тогда, когда происходит выбор одной из нескольких возможностей. В теории Шеннона на первый план выдвигалась идея кода и канала передачи информации, а количество информации, характеризующее данное сообщение, определялось множеством всех возможных сообщений и их вероятностей независимо от их смыслового содержания

Шенноном были решены вопросы исчисления пропускной способности каналов связи, энтропии источников сообщений и т.д.

Совокупность этих представлений, названная К. Шенноном "математической теорией связи"[5], и явилась основой классической теории информации. Данный подход, хотя и не учитывает смысловую сторону информации, оказался весьма полезным в технике связи и вычислительной технике, послужил основой для измерения информации и оптимального кодирования сообщений.

Впоследствии появилась обобщенная теория информации – система представлений, стремящаяся использовать шенноновскую формулу для определения "количества информации", связанной с событиями, а не только с появлением на выходе канала связи очередного символа.

Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или прибором. Наиболее ярко и образно эта концепция выражена академиком, д-ром физ.-мат. наук Виктором Михайловичем Глушковым. Вообще академик Глушков относится к плеяде выдающихся советских и украинских ученых, оказавших влияние не только на отечественную, но и на мировую науку. Именно Глушков дал современной кибернетике и информатике импульс дальнейшего развития по сравнению с Винером. В работе "Об информационных возможностях современных электронных вычислительных машин" еще в 1960 году он писал: "Под информацией в современной науке принято понимать меру неоднородности распределения материи и энергии в пространстве и во времени. При таком понимании информации, оказывается возможным говорить, например, об информации, которую несет солнечный луч, шум горного обвала, шорох листвы и т.д. Во всяком случае при этом необязательно требовать осмысленности, с которой неразрывно связывается понятие информации в ее обычном, житейском понимании".

Третья концепция основана на логико-семантическом подходе (семантика – изучение текста с точки зрения смысла), при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия и управления. Иными словами, информация – это действующая, полезная часть знаний. Представитель этой концепции доктор философских наук, проф., академик РАН Виктор Григорьевич Афанасьев, развивая логико-семантический подход, дает определение социальной информации: "Информация, циркулирующая в обществе, используемая в управлении социальными процессами, является социальной информацией. Она представляет собой знания, сообщения, сведения о социальной форме движения материи и обо всех других формах в той мере, в какой она используется обществом…"




Поделиться с друзьями:


Дата добавления: 2014-01-20; Просмотров: 2965; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.008 сек.