Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Алфавитный подход (кибернетический)




Формула Шеннона

Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при бросании вероятности выпадения «орла» и «решки» будут различаться.

Формулу для вычисления количества информации для событий с различными вероятностями предложил К.Шеннон в 1948 году. В этом случае количество информации определяется по формуле: ,

где I – количество информации,

N – количество возможных событий,

pi - вероятности отдельных событий.

Например, пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут следующими:

P1 = 1/2, Р2= 1/4, Р3 = 1/8, P4 = 1/8, тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле 2.2:

 

I = -(l/2*log1/2 + l/4*log1/4 + l/8*log1/8 + l/8*log1/8)бит = (1/2 + 2/4 + 3/8 + 3/8) бит = 14/8 бит = 1,75 бит.

 

Для частного, но широко распространенного случая, когда события равновероятны

(pi = 1/N), величину количества информации I можно рассчитать по формуле:

С другой стороны, всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. С позиций computer science носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмагорову, информативность последовательности символов не зависит от содержания сообщения, а определяется минимально необходимым количеством символов для ее кодирования. Алфавитный подход является объективным. Смысл сообщения учитывается на этапе выбора алфавита кодирования либо не учитывается вообще.

Объективным способом измерения информации является алфавитный подход т.е. он не зависит от субъекта, воспринимающего сообщение. Только алфавитный подход пригоден при использовании технических средств работы с информацией. В этом случае количество информации зависит от объема текста и от мощности алфавита.

 

Мощность алфавита – это число символов в нем.

Выясним, сколько символов можно закодировать с помощью двух знаков.

Возможных случаев 4: 00, 01, 10, 11.

Если использовать 3 знака, то можно закодировать 8 символов: 000, 001, 010, 011…

Мощность алфавита, который используется в компьютере, равна 256. в таком алфавите можно поместить практически все необходимые символы:

Буквы: 33(русские, большие) + 33(русские, малые) + 26(англ., большие) + 26(англ., малые)

Цифры: 10 (от 0 до 9)

Знаки: 12 (знаки препинания) + 15(скобки и остальные знаки).

Чтобы закодировать такое количество символов, необходима последовательность из 8 знаков.

Т.о. один символ такого алфавита содержит количество информации равное 8 бит. Количество в 8 битах оказалась очень удобной величиной для измерения и кодирования, для нее придумали отдельной название – 1 байт.

Количество информации, содержащейся в символьном сообщении, равно К×i, где К – число символов в тексте сообщения, а i – информационный вес символа, который находится из уравнения 2i=N, где N – мощность используемого алфавита.

 

1 байт = 8 бит = 1 символу.

Т.о. каждому символу соответствует свой определенный восьмизначный двоичный код ASCII-код. Например, закодируем слово «мир».

«М» имеет код 11101101, «И» – 11101001, «Р» – 11110010.

Таким образом, слово «МИР» кодируется последовательностью из 24 бит.

Но 1 бит слишком маленькая единица измерения. На практике используются более крупные единицы:

Другие единицы измерения информации:

1 килобайт (Кб) = 210 байт = 1024 байта;

1 мегабайт (Мб) = 220 байт = 1024 Кб;

1 гигабайт (Гб) = 230 байт = 1024 Мб.

1 терабайт (Тб) = 240 байт

 

Задача1. Подсчитайте количество информации:

а) на странице учебника, имеющей 50 строк по 60 символов?

б) во всем учебнике, если в нем 150 страниц?

Задача 2. Сколько килобайт составляет сообщение, содержащее 12288 битов?

Задача 3. Пользователь компьютера, хорошо владеющий навыками ввода информации с клавиатуры, может вводить в минуту 100 знаков. Мощность алфавита, используемого в компьютере равна 256. Какое количество информации в байтах может ввести пользователь в компьютер за 1 минуту.

8 бит ´ 100» 100 байт

Задача 4. Заполнить пропуски числами:

а) 5 Кбайт = __ байт = __ бит, а) 5 Кбайт = 5120 байт = 40 960 бит;
б) __ Кбайт = __ байт = 12288 бит; б) 1,5 Кбайт = 1 536 байт = 12288 бит;
в) __Гбайт =1536 Мбайт = __ Кбайт; в) 1,5 Гбайт = 1536 Мбайт = 1 572 864 Кбайт;

Задача 5*. Некоторое слово из трех букв закодировали по следующему алгоритму: каждую букву заменили ее порядковым номером в алфавите. Что это за слово?

Закодированное слово: 12165.

Вариант решения.

Цифр в закодированном слове пять, а букв три. Не забудьте, что многие буквы кодируются двузначными числами.

Мы можем сразу определить последнюю букву. Это Д(5), так как буквы с кодом 65 нет. На две оставшиеся буквы приходятся 4 цифры. Переберем варианты: 1, 2, 16 – уже три буквы; 1, 21, 6 – тоже три; 12, 1,6 – опять три; 12, 16 – то, что надо!

Единственный подходящий вариант ответа – КОД.

Задача 6* Закодированное слово 21020, но количество букв в слове неизвестно.

Сразу ясно, что в нем всего 3 буквы, 2, 10, 20, т.к. кодов 0,02 не существует. Это слово БИТ.

Д/з: Самостоятельно: Защита информации, авторских прав на программное обеспечение.





Поделиться с друзьями:


Дата добавления: 2014-11-18; Просмотров: 925; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.016 сек.