КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Понятие информации. Информация(одно из центральных понятий современной философии и науки, широко вошедшее в обиход с 50-х гг
Информация (одно из центральных понятий современной философии и науки, широко вошедшее в обиход с 50-х гг. XX в.) все чаще рассматривается в качестве третьего компонента бытия - наряду с веществом и энергией. Сам термин информация происходит от латинского informatio, что означает разъяснение, осведомление, изложение. Она есть отражение реального мира с помощью сведений (сообщений). Сообщение - это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.д. (з аметим, что одно и то же информационное сообщение может содержать разное количество информации для разных людей - в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему). В широком смысле информация - это обмен сведениями между людьми, обмен сигналами между живой и неживой природой. Иначе - информация это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний. Несмотря на широкое распространение этого термина, понятие «информация» является одним из самых дискуссионных. В настоящее время наука пытается найти общие свойства и закономерности, присущие ей, но пока оно во многом остается интуитивным и получает различные смысловые наполнения в разных отраслях человеческой деятельности. В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.д. «Информировать» в этом смысле означает сообщить нечто, неизвестное ранее. В технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов. В кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, или развития системы. При этом выделяют формы существования информации: статическая (книги, рисунки, звуковые записи и т.д.) и динамическая (процессы передачи информации по каналам связи или в пространстве), а также ее виды: биологическая и социальная. Биологическая информация обеспечивает жизнедеятельность отдельно взятого организма, а социальная - неразрывно связана с практической деятельностью человека и здесь можно выделить столько ее типов и разновидностей, сколько имеется видов деятельности человека. Наряду с информацией в информатике часто употребляется понятие данные. В чем их отличие? Данные могут рассматриваться как признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся. В том случае, если появляется возможность использовать эти данные для уменьшения неопределенности о чем-либо, то данные превращаются в информацию. Поэтому можно утверждать, что информацией являются используемые данные, т.е. преобразование и обработка данных позволяют извлечь информацию или знание о том или ином предмете, процессе или явлении. Короче, информация - это сведения, которые уменьшают неопределенность знания, т.е. приносят нам новое знание. Чаще всего информация передаётся в форме сообщений от некоторого источника информации к её получателю посредством канала связи между ними (совокупности устройств, предметов и объектов, предназначенных для передачи информации), т.е. при работе с информацией должен иметься ее источник и потребитель (получатель), кроме того (в динамике) - передатчик, канал связи, приемник. Пути и процессы, обеспечивающие передачу сообщений от источника информации к ее потребителю, называются информационными коммуникациями. Среда передачи объединяет источник и получателя информации в информационную систему.
В науку понятие информации введено в 1928 г. американским инженером Хартли для обозначения меры количественного измерения сведений. Для вычисления количества информации как меры неопределенности, устраняемой в результате получения информации, Хартли предложил логарифм при основании два: I = log2 N, где I - количество информации, N - число возможных состояний объекта. Если код двоичный, т.е. используются лишь два символа - 0 или 1, то N = 2, тогда I = 1. Так определяется единица информации - бит, или «одно из двух»: либо «да», либо «нет» по отношению к вопросу, фиксирующему неопределенность знаний. В 1948 г. XX в. другой американский ученый - Шеннон, предложил более универсальную формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе: I = - (p1 log2 p1 + p2 log2 p2 + … + pN log2 pN), где pi - вероятность того, что именно i - е сообщение выделено в наборе из N сообщений. Если вероятности p1, …, pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли. Анализ формулы показывает, что чем выше вероятность события, тем меньшее количество информации возникает после его осуществления, и наоборот, т.е. совершенно очевидное (с вероятностью, равной 1) сообщение столь же пусто, как и полное отсутствие сообщения (т.е. сообщения, вероятность которого заведомо равна 0). Оба они, согласно допущению Шеннона, неинформативны, не несут получателю никакой информации. Помимо рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями. Следует сказать, что представление об информации как о количественной мере сегодня уже явно недостаточно, поскольку нет ответа на вопрос о качестве, т.е. о количестве какого качества идет речь. В последние годы, в связи с исследованиями кибернетических моделей машинного перевода с одного языка на другой, теории игр и принятия решений, распознавания образов и др., наряду с дальнейшей разработкой статистической концепции информации, которая отображает формально-структурные характеристики информации и не затрагивает ее смыслового содержания появились другие, более сложные - семантические и прагматические концепции. Семантический аспект предполагает учет смыслового содержания информации, а прагматический аспект рассмотрения связан с ценностью, полезностью использования информации при выработке потребителем решения для достижения своей цели. И тем не менее, теория информациидопускает, что в определенных (весьма широких) условиях можно пренебречь качественными особенностями информации, выразить ее количество числом, а также сравнить количество информации, содержащейся в различных группах данных. В случаях, когда говорят об автоматизированной работе с информацией, при посредстве каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит. Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения. Единицей информации в компьютере, как отмечалось, является бит - количество информации, которое можно записать в одном двоичном разряде и который может принимать значение либо 1, либо 0. Восемь последовательных битов (комбинация из 8 бит) составляют байт (один байт может принимать 256 различных значений). Более крупными единицами информации являются килобайты, мегабайты, гигабайты: 1 Килобайт (Кбайт) = 1024 байт. 1 Мегабайт (Мбайт) = 1024 Кбайт. 1 Гигабайт (Гбайт) = 1024 Мбайт. В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как терабайты и петабайты: 1 Терабайт (Тбайт) = 1024 Гбайт. 1 Петабайт (Пбайт) = 1024 Тбайт. Классификация информации. Информацию можно классифицировать по разным признакам и критериям. Приведем пример классификации информации, циркулирующей в организации (заметим, что любая классификация всегда относительна). В основу этой классификации положено пять наиболее общих признаков: место возникновения, стадия обработки, способ отображения, стабильность, функция управления. По месту возникновения информацию можно разделить на входную (информация, поступающая в организацию или ее подразделения), выходную (информация, поступающая из одной организации в другую), внутреннюю (информация, возникающая внутри организации), внешнюю (информация за пределами организации). По признаку стабильности информация может быть переменной (может меняться для каждого случая как по назначению, так и по количеству) и постоянной (неизменная и многократно используемая в течение длительного периода времени). По стадии обработки информация может быть первичной (возникает в процессе деятельности организации и регистрируется на начальной стадии), вторичной (получается в результате обработки первичной информации), промежуточной (используется в качестве исходных данных для последующих расчетов), результатной (получается в процессе обработки первичной и промежуточной информации и используемая для выработки управленческих решений). По способу отображения информация подразделяется на текстовую (совокупность алфавитных, цифровых и специальных символов, с помощью которых представляется информация на физическом носителе) и графическую (различного рода графики, диаграммы, схемы, рисунки и т.д.). По функциям управления обычно классифицируют экономическую информацию. При этом выделяют следующие группы: плановую (информация о параметрах объекта управления на будущий период), нормативно-справочную (содержит различные нормативные и справочные данные), учетную (характеризует деятельность организации за определенный прошлый период времени) и оперативную (информация, используемая в оперативном управлении и характеризующая производственные процессы в текущий период времени). Кроме классификации, понятие «информация» включает большое количество разнообразных свойств, но наиболее важными из них являются следующие: дуализм, полнота, достоверность, адекватность, доступность, актуальность. Дуализм информации характеризует ее двойственность. С одной стороны, информация объективна в силу объективности данных, с другой - субъективна, в силу субъективности применяемых методов. Иными словами, методы могут вносить в большей или меньшей степени субъективный фактор и таким образом влиять на информацию в целом. Более объективная информация применяет методы с меньшим субъективным элементом. Полнота информации характеризует степень достаточности данных для принятия решения или создания новых данных на основе имеющихся. Неполный набор данных оставляет большую долю неопределенности, т.е. большое число вариантов выбора, а это потребует применения дополнительных методов (например, экспертных оценок). Избыточный набор данных затрудняет доступ к нужным данным, создает повышенный информационный шум, что также вызывает необходимость дополнительных методов (например, фильтрацию). И неполный и избыточный наборы затрудняют получение информации и принятие адекватного решения. Достоверность информации - это свойство, характеризующее степень соответствия информации реальному объекту с необходимой точностью (при работе с неполным набором данных достоверность информации может характеризоваться вероятностью). Адекватность информации выражает степень соответствия создаваемого с помощью информации образа реальному объекту, процессу, явлению. Полная адекватность достигается редко, так как обычно приходится работать с не самым полным набором данных, т.е. присутствует неопределенность, затрудняющая принятие адекватного решения (получение адекватной информации также затрудняется при недоступности адекватных методов). Доступность информации - это возможность получения информации при необходимости. Доступность складывается из двух составляющих: из доступности данных и доступности методов. Отсутствие хотя бы одного дает неадекватную информацию. Актуальность информации. Информация существует во времени, так как существуют во времени все информационные процессы. Информация, актуальная сегодня, может стать совершенно ненужной по истечении некоторого времени.
Дата добавления: 2014-01-11; Просмотров: 380; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |