КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Лекция №3. Основные положения теории информации
Основные положения теории информации были разработаны К. Шенноном[ ] в его работах 1948, 1949 и 1950 годов. «Основная идея теории информации состоит в том, что с информацией можно обращаться почти так же, как с такими физическими величинами, как масса или энергия». Поэтому система транспортировки информации может рассматриваться подобно системам транспортировки массы или энергии.
3.2.Понятие энтропии
Понятие энтропии (теорема 2). Выше речь шла о числовых характеристиках законов распределения погрешностей, которыми пользуются в теории вероятностей. Энтропи́я (от др.-греч. ἐντροπία - поворот, превращение) — в естественных науках мера беспорядка системы, состоящей из многих элементов. В теории информации — мера неопределённости какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации Для теории информации К. Шеннон предложил систему критериев, кратко описывающих законы распределения. Для характеристики систематической составляющей используется, как и прежде, первый начальный момент, т. е. значение математического ожидания, а для характеристики центрированной случайной составляющей вместо всех моментов более высоких порядков используется своеобразный момент, равный для закона распределения р (х) интегралу Н(Х) = -p(x)ln p(x)dx (3.1) и называемый энтропией. Таким образом, энтропия является функционалом закона распределения случайной величины и учитывает особенности этого закона. Единицы измерения энтропии. Единицы измерения энтропии зависят от выбора основания логарифма в приведенных выражениях. При использовании десятичных логарифмов энтропия определяется в так называемых десятичных единицах (дит). В случае же двоичных логарифмов энтропия выражается соответственно в двоичных единицах (бит). Бит – (binary digit) количество информации, которое содержится в сообщении о том, что объект находится в одном из двух равновероятных состояниях. Недостаток – при таком определении полностью игнорируется смысловой контекст информации. В математических выкладках более удобно использовать натуральные логарифмы.* При анализе электронных вычислительных машин или приборов, работающих в двоичной системе счисления, удобнее пользоваться двоичными единицами, а при анализе измерительных устройств, работающих, как правило, в десятичной (или двоично-десятичной) системе счисления, — десятичными единицами. Понятие условной энтропии, или энтропии помехи. В теоремах 10 и 16 Шеннон показывает, что дезинформационное действие случайной погрешности, шума или помех при передаче сигнала определяется энтропией шума как случайной величины. В теореме 16 он указывает, что если шум в вероятностном смысле не зависит от передаваемого сигнала, то независимо от статистики сигнала шуму можно приписать определенную величину энтропии, которая и характеризует его дезинформационное действие. Это очень важное положение, так как точный анализ суммы сложного сигнала и шума математически весьма труден. На основе же 16-й теоремы Шеннона этот анализ (при статистически независимом шуме) можно вести раздельно для сигнала и шума, что резко упрощает решение такой задачи. Теорема 10 по формулировке относится к теории кодирования, однако по существу она является доказательством предыдущего положения. * Исторически первоначально для двоичных и десятичных единиц энтропии были предложены сокращенные обозначения в виде binit и decit, однако при употреблении обозначение двоичной единицы было сокращено до bit (по-русски бит), а десятичной и натуральной единиц — до dit (дит) и nit. Здесь утверждается, что количество передаваемой информации I равно энтропии передаваемого сигнала Н (X) за вычетом энтропии шума Н (Δ), т. е. I=H (X) - H (Δ) .* (3.2) * Здесь и далее обозначения Н (X) или Н (Δ) не являются функциями Н от случайной величины Х или Δ, а представляют собой обозначения энтропии случайных величин Х и Δ.
3.2. Применение основных положений теории информации для характеристики процесса измерения Точность измерений мы обычно характеризуем числовым значением полученных при измерении или предполагаемых погрешностей. При этом используются понятия абсолютной и относительной приведенной погрешностей. Если измерительное устройство имеет диапазон измерения от Х 1 до Х 2, т. е. может измерять величины, находящиеся в пределах от X 1 до Х 2, с абсолютной погрешностью ± Δ, не зависящей от текущего значения х измеряемой величины, то, получив результат измерения в виде показания Х П, записываем его как Х П ± Δ и характеризуем относительной приведенной погрешностью (3.3) Рассмотрение этих же самых действий с позиций теории информации носит несколько иной характер, отличающийся тем, что всем перечисленным понятиям придается вероятностный, статистический смысл, а итог проведенного измерения истолковывается как сокращение области неопределенности измеряемой величины. В теории информации тот факт, что измерительный прибор имеет диапазон измерений от Х 1 до X 2, означает, что при использовании этого прибора могут быть получены показания Х П только в пределах от Х 1 до Х 2. Другими словами, вероятность получения отсчетов, меньших Х 1 и больших X 2, равна нулю. Вероятность же получения отсчета где-то в пределах от Х 1 до Х 2 равна единице. Если предположить, что плотность вероятности распределения различных значений измеряемой величины вдоль всей шкалы прибора одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть представлено графиком распределения плотности вероятности р (х) вдоль шкалы значений х, показанным на рис. 3.1. Так как полная вероятность.получить отсчет где-то в пределах от Х 1 до X 2 равна единице, то под кривой р (х) должна быть заключена площадь, равная единице (условие нормирования). При равномерном распределении плотности вероятности это приводит к (3.4) После проведения измерения получаем показание прибора, равное Х П. Однако вследствие погрешности прибора, равной ±Δ, мы не можем утверждать, что измеряемая величина точно равна значению Х П. Поэтому записываем результат измерения в виде Х П ± Δ. Это означает, что действительное значение измеряемой величины Х лежит где-то в пределах от Х П + Δ до Х П —Δ, т. е. в пределах участка 2Δ, как показано на рис. 3.1. С точки зрения теории информации результат нашего измерения состоит лишь в том, что до измерения область неопределенности простиралась от X 1 до X 2 и характеризовалась малой плотностью вероятности р (х) = 1/(Х 2 — X 1), а после измерения она сократилась до величины 2Δ и характеризуется намного большей плотностью вероятности р (х) = 1/2Δ.
Дата добавления: 2014-01-05; Просмотров: 1010; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |