Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Информационные концепции

 

Возникновение теории информации принято связывать с появлением в 1948 г. работы К. Шеннона "Математическая теория связи", развившего идеи Р. Хартли. Многие исследователи начали использовать теоретико-информационные идеи и методы для решения задач в биологии, физиологии, психологии, измерительной технике, телевидении, радиолокации и т.д. Наряду с теорией информации, как математической дисциплины, сложилось направление прикладной теории информации. Ценность информационных представлений заключается в том, что благодаря их общности разнородные физические и технические характеристики оказывается возможным выразить через некоторые универсальные понятия - такие как энтропия и количество информации, выразить независимо от физической сущности конкретных устройств и систем, причем не только выразить, но и сопоставить количественно.

Первоначально идеи теории информации опирались на концепцию выбора. В простейшем случае предполагалось, что имеется равновероятных исходов. Тогда мерой количества информации, приносимой выбором, является мера Р. Хартли

.

Через 20 лет после Р. Хартли К. Шеннон обобщил понятие количественной меры информации на случай неравновероятных исходов, учтя при этом вероятности их появления. Поскольку информация означает уменьшение энтропии

,

то количество информации, приносимое сообщением о ситуации , определяется:

,

где ‑ неопределенность ситуации , оставшаяся после получения сведений .

Использование информационных мер в прикладных задачах управления и контроля позволило создать принципиально новую теорию, которая была развита для решения различных задач. В работах А.В. Солодова излагаются информационные принципы управления технологическими процессами. В работах В.В. Петрова, А.С. Ускова, В.А. Трапезникова развиты основные положения теории информации применительно к задачам автоматического управления. Информационные оценки эффективности и оптимизации систем контроля и управления приведены в работах И.В. Кузьмина. Построению моделей процессов производства, в том числе информационных, посвящены книги Н.С. Райбмана и В.М. Чадеева. Основные положения информационной теории управления в применении к управлению судовыми энергетическими системами изложены в книгах В.И. Николаева.

Широко развит информационный подход в области измерительной техники и автоматического контроля. Первые книги, обобщающие многочисленные журнальные статьи, были опубликованы П.В. Новицким, В.И. Рабиновичем, М.П. Цапенко, М. Краусом, Э. Вошни.

Информационные методы оценки достоверности работы контрольных роторов рассмотрены в книге И.А. Клусова, В.Ф. Прейса и А.Р. Сафарянца.

Следует отметить также задачу о выборе совокупности контролируемых параметров в случае их статистической зависимости. Решению этой задачи посвящены ряд работ Н. Схоутена, Л.Д. Дубицкого, В.Г. Григоровича, С.В. Юдина.

В работах Г.П. Башарина, Р. Мухамедхановой и Т.А. Азларова доказано, что используемая для статистической оценки шенноновской энтропии величина

,

где ‑ эмпирическая частота попадания значений параметра при конечном объеме выборки в -й интервал, является состоятельной, смещенной и асимптотически нормальной оценкой, математическое ожидание и дисперсия которой равны

;

,

где ‑ теоретическая вероятность попадания в -й интервал; ‑ теоретическая энтропия.

В ряде зарубежных работ показано, что эмпирическая информация с точностью до постоянного множителя имеет - распределение.

Знание вида закона распределения случайных значений энтропии и информации позволяет определить доверительные интервалы для параметров информационной модели.

Адекватные информационные модели различных спецпроизводств были построены группой В.Г. Григоровича. На основе моделей решались прикладные задачи анализа точности технологического процесса, планирования контроля, создания новых средств контроля.

Целью работы группы В.Г. Григоровича было создание новой статистики: энтропия использовалась вместо оценки уровня дефектности, среднего и дисперсии. Исследования показали, что при априорно известном законе распределения энтропийные оценки могут иметь преимущества. При этом недостаточное внимание уделялось информационной теории синтеза систем контроля и управления, разработанной отечественными и зарубежными авторами.

Представляется возможным впервые распространить основные положения информационной теории синтеза систем на задачу выбора плана автоматизированного статистического контроля.

 

<== предыдущая лекция | следующая лекция ==>
Экономические концепции | Для массовых производств
Поделиться с друзьями:


Дата добавления: 2014-01-07; Просмотров: 371; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.015 сек.