КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Экономическая информация
Семиотика Энтропия как мера степени неопределенности системы. Количественное измерение информации по Хартли и Шенону Тема 4 ИНФОРМАЦИЯ Принципы и законы управления
Подведем некоторые итоги обсуждения концепции управления, содержание которого определяется, прежде всего, целью, ради достижения которой оно осуществляется. Сущность управления близка его содержанию и характеризуется целенаправленностью, присущей любым видам систем и процессов управления. Управление реализуется в системах различной природы, в специфических условиях, что создает сложности в процессе их исследования. Методологической базой исследования систем и процессов управления является комплекс принципов, учет которых обеспечивает многообразие, актуальность и эффективность их применения. В главе 3 были рассмотрены следующие принципы, собранные в таблице 3.1 Таблица 3.1 – Принципы и законы управления
Рассмотрим какую-нибудь большую систему, которая с кибернетической точки зрения представляет собой машину. По определению эта система является очень сложной. Степень сложности измеряется разнообразием системы. Термин разнообразие достаточно наглядно определяет число различимых элементов в системе. Рассмотрим теперь нашу кибернетическую систему как машину для переработки информации. По существу, очень часто это именно то (даже прежде всего то), чем кибернетическая машина и является. Даже в том случае, когда в нее входит какой-либо физический механизм (например, как в экономику или мозг), совершенно очевидна роль, которую играет способность хранить, передавать и преобразовывать информацию в работе этого механизма. Такая машина для переработки информации обладает большим разнообразием, а, следовательно, характеризуется большой неопределенностью. Здесь следует напомнить, что системы очень сложного типа, как уже было указано, описываются при помощи аппарата теории вероятностей. Таким образом, с увеличением разнообразия увеличивается число возможных состояний системы и усложняется ее математическое описание. Машина в первоначальном состоянии полна неопределенности, ее поведение хаотично. Однако, как только машина начинает работать, в ней появляется упорядоченность, которая начинает уничтожать царящую неопределенность. Эта особенность — появление информации — и позволяет нам управлять кибернетическими системами. Информация уничтожает разнообразие, а уменьшение разнообразия является одним из основных методов регулирования, и не потому, что при этом упрощается управляемая система, а потому, что поведение системы становится более предсказуемым. Наличие «шума» в системе ведет к увеличению разнообразия (а, следовательно, и неопределенности), не увеличивая содержащейся в ней информации. Стаффорд Бир Информация - (лат. informatio — разъяснение, изложение, осведомленность) неотъемлемый элемент любого процесса управления в экономических, технических системах, обществе, живом организме. Информация — такое же неотъемлемое свойство материи, как масса и энергия. Информация — одно из наиболее общих понятий науки, обозначающее некоторые сведения, совокупность каких-либо данных, сообщений и т. п. Иначе, под информацией понимается сообщение, устраняющее неопределенность в той области, к которой оно относится. Академик В. М. Глушков дал следующее определение: информация — это мера неоднородности распределения материи и энергии в пространстве и во времени, показатель изменений, которыми сопровождаются все протекающие в мире процессы. В общественной практике понятие информации отождествляется с содержанием какого-либо известия, которое может иметь форму устного сообщения, письма, доклада, результатов исследования, наблюдения и пр. Н. Винер писал, что в кибернетике информация понимается не только как обмен между человеком и машиной, но и как обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств. Важнейшим инструментом исследования информации является теория информации, посвященная проблемам сбора, передачи, хранения, переработки и определения количественной меры информации. Создателями теории информации явились Л. Хартли, К. Шеннон, А. А. Харкевич, С. Гольдман и др. Основы статистической теории информации сформулированы, главным образом, К. Шенноном. Но теория Шеннона оказалась применимой к довольно широкому кругу вопросов, хотя она и не претендует на адекватное отображение всего содержания информации, употребляемого в науке и в обыденной жизни в различном смысле. Наличие различных методологических подходов к информации объясняется тем, что изучение информации находится в процессе развития. Разные точки зрения имеют свои положительные стороны и служат познанию окружающего мира в конкретной области исследования. Поскольку объектом исследования в кибернетике являются системы, конструируемые для решения определенных задач, то информацию определяют как сведения, полезные для решения задачи. Если сведения не имеют никакой пользы, то они представляют собой не информацию, а «шум». Если они отклоняют от правильного решения, то представляют собой дезинформацию. Рассмотрение информации как условия системного исследования позволяет выделить ряд ее важнейших свойств. В первую очередь, это полезность информации и наличие в ней смысла для данной системы. Важнейшим свойством информации является то, что она всегда имеет знаковое воплощение. Знак, какова бы ни была его природа, является материальным носителем информации. Приемник информации имеет способность к восприятию, преобразованию и воспроизводству знаков в определенном диапазоне, отведенном ему природой или конструкцией. Эти знаковые преобразования трактуются как переработка информации. В настоящее время используются различные технические устройства переработки информации. В этих устройствах информация преобразуется в различного рода сигналы с последующим ее восстановлением. Существенное свойство информации состоит в ее способности воплощаться в различные сигналы и восстанавливаться из них. Попытки качественного определения информации дополняются количественным определением, связанным с различными способами измерения информации.
Дата добавления: 2014-01-11; Просмотров: 314; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |