Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Метод Шеннона-Фано




Практические методы оптимального кодирования

 

 

Демонстрация практических способов отыскания оптимальных кодов – это тоже доказательство их существования и полезное для приобретения практического опыта занятие. Поэтому и из-за недостаточной строгости только что приведённого доказательства ниже рассматриваются конкретные технологии поиска оптимальных, но уже неравномерных кодов.

 

Сущность метода иллюстрируется ниже учебным примером кодирования системы, имеющей восемь состояний. Метод реализуется в следующих процедурах.

В специальную таблицу (см. ниже) справа колонкой выписывают состояния кодируемого источника информации в порядке убывания вероятностей их реализации. Эти вероятности указываются в следующей колонке таблицы.

Получившуюся таблицу условно разбивают на две части, каждая из которых содержит в себе состояния, суммарные вероятности которых приблизительно одинаковы. Приблизительность разбиения делает метод неоднозначным и здесь показано (квадратик на линии разделения) два возможных варианта такого разбиения.

 

Рабочая таблица кодирования источника

Состояние Вероятность Кодовое слово Первый вариант…… Второй вариант разбиения
S1 0,22 11 11
S2 0,20 101 10
S3 0,16 100 011
S4 0,16 01 010
S5 0,10 001 001
S6 0,10 0001 0001
S7 0,04 00001 00001
S8 0,02 00000 00000

 

После разбиения в следующей колонке начинается формирование кодовых слов из символов бинарного кода. Всем состояниям, попавшим в верхнюю часть таблицы, в качестве первого символа кодового слова присваивается единица, а оказавшимся в нижней части – ноль. В нашем примере в первом варианте кодовые слова начинаются с единицы у трех состояний, а во втором – у двух.

На втором и последующих этапах кодирования разбиение продолжают, если получившиеся в предыдущем разбиении группы состояний ещё возможно разделить на две половины.

На втором и последующих этапах кодирования принцип присвоения кодовым словам единиц и нулей в качестве второго и последующий символов остаётся тем же. При этом всё труднее и труднее выделять группы состояний с приблизительно равными суммами их вероятностей. Поэтому, часто на последующих этапах кодирования, верхнюю половину (где последующий символ кодового слова единица) в каждой ранее выделенной подгруппе составляет единственное состояние с наибольшей вероятностью, а нижнюю – все остальные, которые и получают в качестве следующей «букв» своего кодового слова нули.

Процесс продолжается до тех пор, пока последняя пара событий- событий с самыми малыми вероятностями не поделят (на основе всё того же принципа) между собой ноль и единицу.

По окончании процесса можно оценить качество (оптимальность) получившегося кода. По теории он должен иметь кодовые слова, среднее количество символов в которых приблизительно равно энтропии источника информации. Чем ближе к величине энтропии, тем лучше.

Энтропия источника находится по известному набору вероятностей его состояний, а средняя длинна кодового слова – как математическое ожидание на множестве получившихся в итоге кодовых слов.

В нашем примере энтропия Hs =2,76 бит, а среднее количество двоичных символов на кодируемое состояние источника – 2, 84 и 2, 80 (они будут в среднем на столько же бит пополнять количество информации в сообщениях) и для первого и второго разбиений, соответственно. Коды, как мы видим разные по оптимальности и оба не очень хорошие. Это результат приблизительности разбиения и неудобной неравномерности убывания вероятностей. И с этим ничего не поделаешь.




Поделиться с друзьями:


Дата добавления: 2015-06-27; Просмотров: 405; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.008 сек.