КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Где N - количество возможных событий,
Pi – вероятности отдельных событий.
В этом случае количество недостающей информации определяется по формуле:
I = - Для частного, но широко распространенного случая, когда события равновероятны (Pi = ), величину количества информации I можно рассчитать по формуле:
I = - = log 2 N Информация необходимая для выбора равноправных вариантов, равна логарифму числа вариантов. I = log 2 N
Для определения количества информации необходимо также ввести единицу измерения. Если принять число возможных вариантов минимальным – равным 2 (вернемся к опыту с бросанием монеты - здесь из двух возможных событий N=2 реализуется одно), то получаем количество информации необходимое для выбора. I = log 2 2 = 1 За единицу количества информации принято элементарное количество информации о событии, которое заключается в выполнении одного из двух равновероятных исходов. Такая единица названа бит. (bit — binary digit — двоичная цифра). Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2 n. Следующей по величине единицей измерения количества информации является байт, причем 1 байт = 23 бит = 8 бит. Для обозначения больших количеств информации применяются производные от байта единицы: 1 Кбайт = 2 10 байт = 1024 байт 1 Мбайт = 2 10 Кбайт = 1024 Кбайт 1 Гбайт = 2 10 Мбайт = 1024 Мбайт
В общей теории информации (раздел теории алгоритмов) предлагается алгоритмический метод оценки информации в сообщении. Каждый согласится, что слово 0101...01 сложнее слова 00...0, а слово, где 0 и 1 выбираются из эксперимента - бросания монеты (где 0 – «орел», 1 – «решка»), сложнее обоих предыдущих. Компьютерная программа, производящая слово из одних нулей, крайне проста: печатать один и тот же символ. Для получения 0101...01 нужна чуть более сложная программа. Случайная, не обладающая никакими закономерностями последовательность не может быть произведена никакой "короткой " программой. Длина программы, производящей хаотичную последовательность, должна быть близка к длине последней. Таким образом любому сообщению можно приписать количественную характеристику, отражающую сложность (размер) программы, которая позволяет ее произвести. Для определенности задаются некоторой конкретной вычислительной машиной, например машиной Тьюринга, а предполагаемая количественная характеристика - сложность слова (сообщения) определяется как минимальное число внутренних состояний машины, требующихся для его воспроизведения
Дата добавления: 2014-10-31; Просмотров: 285; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |