![]() КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Энтропия как мера степени неопределенности системыПонятия возможности, случайности, вероятности находятся в определенном отношении с понятием неопределенности. Неопределенность существует объективно. Она всегда имеет место тогда, когда производится выбор из некоторой совокупности элементов одного элемента. Степень неопределенности выбора характеризуется отношением числа выбранных элементов к общему числу элементов совокупности (множества). Если множество состоит из одного элемента, то степень неопределенности равна нулю. Вероятность выбора в этом случае равна 1. Множество из двух элементов имеет вероятность выбора, равную p = H=log При этом можно брать логарифмы по любому основанию, но принято брать логарифмы по основанию два. Изучением степени неопределенности и связи ее с вероятностью занимается статистическая теория информации. Формула Н = log2 Для оценки количества информации, связанной с появлением одного сообщения, пользуются формулой: hi= -log2pi (4.2) где pi - вероятность появления события St. Такую оценку индивидуального количества информации называют индивидуальной энтропией. Индивидуальная энтропия события тем больше, чем меньше вероятность его появления. Однако статистическую теорию информации не интересует индивидуальное количество информации. Существенной для характеристики любого опыта являются не информации n1, n2,..., nN, связанные с отдельными исходами опыта, а средняя информация, которая определяется следующим образом. Пусть для некоторого события х известно, что количество различных исходов равно N, а вероятности их равны соответственно pl,p2,-,pN, причем Pl +р2 +... + pN = 1. В результате достаточно большого числа испытаний (их число равно М) получено, что первый исход наступил m1 раз, второй — т2 раз,.., N-й — тN раз (m1, + т2 +... + тN = М). Известно, что в результате единичного наступления i-го исхода опыта получаем индивидуальное количество информации: ni=-logpi, (i=1, 2, …, N). Поскольку первый исход наступил m1 раз, то полученное при этом суммарное количество информации равно n1m1 где n1 - индивидуальное количество информации, полученное в результате одного наступления первого исхода опыта. Аналогично получаем суммарное количество информации, полученное при наступлении второго исхода опыта и т. д. Общее количество информации, полученное в результате М испытаний, равно n1m1 + n2m2 + … + nNmN а среднее количество информации, полученное в одном испытании, равно При Отсюда получаем среднее количество информации, характеризующее событие х: H(x) = n1p1 + n2p2 + … + nNpN = -p1logp1 -p2logp2- … - pNlogpN Предположим, что опыт состоит в извлечении одного шара из ящика, в котором находится один черный и два белых шара. Исходя из классического подхода, вероятность выбора черного шара равна H= В общем виде формула степени неопределенности (количества информации в битах) имеет следующий вид: H = Эта формула предложена в 1948 г. К. Шенноном. Ее называют еще формулой абсолютной негэнтропии. Она аналогична формуле энтропии, только имеет отрицательный знак. Знак минус в правой части приведенного уравнения использован для того, чтобы сделать величину H положительной (поскольку pi <1, log2pi, ≤0, По приведенной формуле определяется среднее количество информации в сообщениях при неравновероятных исходах опыта. Легко заметить, что при равновероятности исходов формула H= превращается в формулы: H = - log p u Hmax = log N, поскольку сумма всех p всегда равна 1 и каждое рi = р. Запишем формулу Шеннона в виде: H = Пусть все исходы равновероятны, тогда: p1= p2 = … = pN = подставив эти значения в формулу, получим: H = Из формулы степени неопределенности видно, что среднее количество информации в битах в дискретном сообщении о простом событии определяется как отрицательная сумма вероятностей всех возможных событий, умноженных на их логарифмы по основанию 2. Количество информации выше среднего приходится на события, вероятность которых ниже. Более высокую информационную емкость имеют редкие события. Формулой подтверждается также более низкая неопределенность систем с более высокой вероятностью событий. Поскольку вероятность одних событий повышается за счет снижения вероятности других (так как сумма всех вероятностей равна 1), энтропия становится тем ниже, чем менее вероятны события, а максимума она достигает при равновероятности всех событий. Покажем, что Нmаx, получаемое при равновероятных исходах события, является верхней границей значений Н. Для этого найдем максимальное значение функции H(Pl, р2, pN), используя множитель Лагранжа l. Найти max F = Приравняем к нулю частные производные функции по рi:
Отсюда log pi =-loge-l и легко видеть, что все pi = Н = -0 * log0 - 0 * log0 +... -1 * logl +... - 0 * log0. Легко показать, что выражение0 * log0 = 0• (
Тогда получим Н = 0 для достоверного события. Следовательно, среднее количество информации находится в пределах 0≤H≤Hmax Теперь можно сформулировать определение условной вероятности. Если случайная величина х принимает значения x1, x2,..., xN а случайная величина y принимает значения y1, y2,..., yN, то условной вероятностью называется вероятность того, что х примет значение xi если известно, что у приняло значение yi. Безусловная вероятность р (xi) равна условной вероятности, усредненной по всем возможным значениям y:
где p(yi) - вероятность j-го значения величины у, величина Очевидно, если события х и у независимы, то p(xi)= p (xiyi) (4.5) Неопределенность события х определяется по формуле:
Если события x и y зависимы, и событие y приняло значение yi, то неопределенность события x становится равной
Так как событие у может принимать значение y1, y2,..., yM c вероятностями р(1), р(у2), … p(yM), средняя неопределенность события х при любых возможных исходах события у равна:
Это условная негэнтропия случайной величины х при задании случайной величины у. Она всегда не больше безусловной Н(х/у)≤Н(х), причем равенство имеет место только в том случае, когда знание величины у не меняет вероятностей значений величины х, т. е.
каким бы ни было значение уi. Это условие означает, что неопределенность события х не возрастает от того, что событие у становится известно. Для двух случайных событий х и у энтропия совместного события равна: В полученном выражении
а второе слагаемое есть не что иное, как H(x/y). Следовательно, H(y,x) = H(y) + H(x/y)≤H(y) + H(x) (4.9) Равенство достигается тогда, когда события х и у независимы. В качестве меры количества информации в случайной величине у о случайной величине х принимается величина, на которую уменьшается в среднем неопределенность величины х, если нам становится известным значение величины у: Эта формула выражает количество информации в случайной величине у о случайной величине х, как разность между безусловной и условной негэнтропией. По формуле условной негэнтропии строится вся современная статистическая теория информации. Переход от абсолютной негэнтропии к условной приобретает фундаментальное решающее значение. Формула условной негэнтропии выражает количество информации относительно заданной системы отсчета, системы координат. Иначе говоря, она характеризует количество информации, содержащееся в одном объекте относительно другого объекта. Классическая теория информации дает полезный аппарат, но он не универсален и множество ситуаций не укладываются в информационную модель Шеннона. Далеко не всегда можно заранее установить перечень возможных состояний системы и вычислить их вероятности. Кроме того, основным недостатком этой теории является то, что, занимаясь только формальной стороной сообщений, она оставляет в стороне их ценность и важность. Например, система радиолокационных станций ведет наблюдение за воздушным пространством с целью обнаружения самолета противника. Система S, за которой ведется наблюдение, может быть в одном из двух состояний: x1 - противник есть, х2 - противника нет. Выяснение фактического состояния системы принесло бы в рамках классической теории информации 1 бит, однако первое сообщение гораздо важнее, что оценить невозможно с помощью вероятностного подхода. Статистическая теория информации оперирует лишь вероятностями исходов рассматриваемых опытов и полностью игнорирует содержание этих исходов. Поэтому эта теория не может быть признана пригодной во всех случаях. Понятие информации в ней трактуется весьма односторонне. Следовательно, уничтожение неопределенности, т. е. получение информации, может происходить не только в результате вероятностного процесса, но и в других формах. Понятие неопределенности оказывается шире понятия вероятности. Неопределенность — понятие, отражающее отсутствие однозначности выбора элементов множества. Если этот выбор имеет случайный характер, то мы имеем дело со статистической теорией информации. Если же этот выбор не случаен, то необходим невероятностный подход к определению информации. Существуют следующие невероятностные подходы к определению информации: динамический, топологический, алгоритмический. Мы не будем рассматривать эти невероятностные подходы к определению количества информации, отметим только, что каждый из этих методов обнаруживает нечто общее со статистическим подходом. Оно состоит в том, что эти методы изучают переход от неопределенности к определенности. Но все же эти методы отличаются от статистического подхода. Один из невероятностных подходов к определению количества информации принадлежит советскому ученому А. Н. Колмогорову. По аналогии с вероятностным определением количества информации как функции связи двух систем, он вводит определение алгоритмического количества информации. Количество информации, содержащееся в сообщении, можно связывать не только с мерой неопределенности системы, но и с ее структурной сложностью и точностью измерений. Такой подход предлагается к оценке научной информации, возникающей в результате анализа процесса наблюдений и эксперимента. Количество различных признаков, характеризующих данный предмет, т. е. его размерность или число степеней свободы, является мерой структурной информации. Ясно, что цветное изображение содержит в себе больше информации по сравнению с черно-белым изображением того же объекта. Единица структурной информации — логон — означает, что к имеющемуся представлению можно добавить одну новую различимую группу или категорию. Количество метрической информации связано с разрешающей способностью измерений. Например, эксперимент, результат которого обладает погрешностью, равной 1 %, дает больше информации, чем эксперимент, характеризующийся погрешностью в 10 %. Единицей измерения метрической информации является метрон. В случае числового параметра эта единица служит мерой точности, с которой этот параметр определен. Статистический и нестатистический подходы в теории информации касаются только количества информации, но информация имеет еще и качественный аспект. Объединение элементов в множество всегда предполагает наличие у них некоторого свойства, признака, благодаря чему они образуют данное множество, а не иное. Следовательно, каждый элемент множества обладает определенным качественным отличием от элемента другого множества. Кроме того, внутри множества различие элементов друг от друга носит тоже качественный характер. Поиск качественного аспекта информации как раз и состоит в учете природы элементов, объединяемых в множества, в учете качественного многообразия материи. До сих пор информация рассматривалась как снятая, устраняемая неопределенность. Именно то, что устраняет, уменьшает любую неопределенность и есть информация. Однако информацию можно рассматривать не только как снятую неопределенность, а несколько шире. Например, в биологии информация — это, прежде всего, совокупность реальных сигналов, отображающих качественное или количественное различие между какими-либо явлениями, предметами, процессами, структурами, свойствами. Такой более широкий подход к определению понятия информации сделал У. Росс Эшби. Он считает, что понятие информации неотделимо от понятия разнообразия. Природа информации заключается в разнообразии, а количество информации выражает количество разнообразия. Одно и то же сообщение при разных обстоятельствах может содержать различное количество информации. Это зависит от разнообразия, которое наблюдается в системе. Слово «разнообразие» означает число различных элементов в множестве. Так, например, множество с, b, с, а, с, с, а, b, с, b, b, а, если не принимать во внимание порядок расположения элементов, содержит 12 элементов, и только три из них различные: а, b, с. Такое множество имеет разнообразие в три элемента. Множество с разнообразием и множество с вероятностями имеют эквивалентные свойства. Так, множество, у которого все элементы различны, имеет максимальное количество разнообразия. Чем больше в системе разнообразия, тем больше неопределенность в поведении такой системы. Уменьшение разнообразия уменьшает неопределенность системы. Вероятность выбрать наугад данный элемент из множества с максимальным разнообразием равна единице, деленной на количество всех элементов множества Ограничения разнообразия весьма обычны в окружающем нас мире. Любой закон природы подразумевает наличие некоторого инварианта, поэтому всякий закон природы есть ограничение разнообразия. Окружающий мир чрезвычайно богат ограничениями разнообразия. Без ограничений разнообразия мир был бы полностью хаотичным. Ограничение разнообразия соответствует уменьшению количества информации, поэтому ограничение разнообразия равносильно установившемуся в статистической теории понятию избыточности. Избыточность тем больше, чем больше ограничение разнообразия. Если же элементы в множестве одинаковы, то избыточность равна единице. Если в ящике все шары оказываются одинакового цвета, то их избыточность по цвету равна единице, если же все шары будут разного цвета, то избыточность равна нулю. Наличие у информации качества вызывает необходимость в классификации видов информации. Различают элементарную информацию, т. е. информацию в неживой природе, биологическую, логическую, человеческую, или социальную. Для социальной информации характерно выделение двух аспектов: семантического, связанного с содержанием сообщений, и прагматического, связанного с полезностью их для получателя.
Дата добавления: 2014-01-11; Просмотров: 2427; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |