Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

При эксплуатации АТ




Диагностическая информация

TEMA 4

 

Лекция 11. Информация в технической диагностике

 

Вопрос 1. Информационные основы технической диагностики

Получение информации об объекте – необходимое условие для постановки диагноза. В основе процесса получения и оценки информации лежит понятие «энтропия», изучаемое в термодинамике, также с ее помощью можно измерять информацию об объекте.

Вспомним основное правило: в самопроизвольных системах энтропия всегда возрастает, причем возрастание всегда сопровождается хаотическим разупорядочением. Книги и бумаги на столе обязательно приходят в беспорядок, если за ними не следить. Это результат случайной, а не организованной деятельности. Порядок создается искусственно и ему соответствует уменьшение энтропии. Неупорядоченное состояние всегда более вероятно, а вероятность количественно оценивается на основе накопленных статистических данных.

Зависимость энтропии от статистических характеристик впервые открыта Л.Больцманом в 1872 г. и имеет вид

,

где – статистический вес системы;

– константа (постоянная Больцмана).

Физический смысл статистического веса заключается в числе способов существования системы или объекта при заданных условиях. Это целое положительное число.

Чем больше у системы возможностей отклонения от равновесного неупорядоченного состояния, тем интенсивнее возрастает статистическая энтропия, стремясь к максимальному значению (у системы из 4 элементов максимальный статистический вес равен 6, у системы из 6 элементов уже будет равно 20, соответственно увеличится и ).

Теперь коснемся связи между энтропией и информацией. С этой точки зрения энтропия есть мера нашего «незнания», мера недостатка информации о рассматриваемой системе. При подбрасывании монеты у нас могут произойти только два события – выпадение «орла» или выпадение «решки». Энтропия невелика, и информации дает одно из событий немного, так как вероятность появления события велика. При подбрасывании игральной кости энтропия растет, так как может произойти 6 событий, и каждое событие дает нам больше информации.

Реализация менее вероятного события дает больше информации. Этот постулат разработал американский инженер и математик К.Шеннон при разработке основ теории информации.

Очевидно, что при бросании двух игральных костей мы получаем вдвое больше информации. Таким образом, информация, получаемая в независимых сообщениях, суммируется, т.е.

,

где , – число равновероятных событий в первой и второй системах.

В то же время полное число равновероятных событий в двух независимых системах равно их произведению:

.

Количество информации находится по формуле

.

Информация выражается в битах – двоичных единицах.

Если перейти к состояниям технических объектов (систем), то очевидно, что появление неисправных состояний менее вероятно, чем исправных. Простой моделью такой системы может послужить та же игральная кость, у которой пять граней с цифрой 1 (исправное состояние), а одна – с цифрой 2 (неисправное состояние). Вероятность появления определенного состояния , где , – соответственно число реализованных и возможных событий в каждом из состояний . Если известно число возможных состояний системы , а также вероятность их появления, то можно оценить максимальную неопределенность системы или степень ее возможной изменчивости

.

Эта зависимость называется информационной энтропией.




Поделиться с друзьями:


Дата добавления: 2014-10-17; Просмотров: 321; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.008 сек.