КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Метод Шеннона-Фано
Практические методы оптимального кодирования
Демонстрация практических способов отыскания оптимальных кодов – это тоже доказательство их существования и полезное для приобретения практического опыта занятие. Поэтому и из-за недостаточной строгости только что приведённого доказательства ниже рассматриваются конкретные технологии поиска оптимальных, но уже неравномерных кодов.
Сущность метода иллюстрируется ниже учебным примером кодирования системы, имеющей восемь состояний. Метод реализуется в следующих процедурах. В специальную таблицу (см. ниже) справа колонкой выписывают состояния кодируемого источника информации в порядке убывания вероятностей их реализации. Эти вероятности указываются в следующей колонке таблицы. Получившуюся таблицу условно разбивают на две части, каждая из которых содержит в себе состояния, суммарные вероятности которых приблизительно одинаковы. Приблизительность разбиения делает метод неоднозначным и здесь показано (квадратик на линии разделения) два возможных варианта такого разбиения.
Рабочая таблица кодирования источника
После разбиения в следующей колонке начинается формирование кодовых слов из символов бинарного кода. Всем состояниям, попавшим в верхнюю часть таблицы, в качестве первого символа кодового слова присваивается единица, а оказавшимся в нижней части – ноль. В нашем примере в первом варианте кодовые слова начинаются с единицы у трех состояний, а во втором – у двух. На втором и последующих этапах кодирования разбиение продолжают, если получившиеся в предыдущем разбиении группы состояний ещё возможно разделить на две половины. На втором и последующих этапах кодирования принцип присвоения кодовым словам единиц и нулей в качестве второго и последующий символов остаётся тем же. При этом всё труднее и труднее выделять группы состояний с приблизительно равными суммами их вероятностей. Поэтому, часто на последующих этапах кодирования, верхнюю половину (где последующий символ кодового слова единица) в каждой ранее выделенной подгруппе составляет единственное состояние с наибольшей вероятностью, а нижнюю – все остальные, которые и получают в качестве следующей «букв» своего кодового слова нули. Процесс продолжается до тех пор, пока последняя пара событий- событий с самыми малыми вероятностями не поделят (на основе всё того же принципа) между собой ноль и единицу. По окончании процесса можно оценить качество (оптимальность) получившегося кода. По теории он должен иметь кодовые слова, среднее количество символов в которых приблизительно равно энтропии источника информации. Чем ближе к величине энтропии, тем лучше. Энтропия источника находится по известному набору вероятностей его состояний, а средняя длинна кодового слова – как математическое ожидание на множестве получившихся в итоге кодовых слов. В нашем примере энтропия Hs =2,76 бит, а среднее количество двоичных символов на кодируемое состояние источника – 2, 84 и 2, 80 (они будут в среднем на столько же бит пополнять количество информации в сообщениях) и для первого и второго разбиений, соответственно. Коды, как мы видим разные по оптимальности и оба не очень хорошие. Это результат приблизительности разбиения и неудобной неравномерности убывания вероятностей. И с этим ничего не поделаешь.
Дата добавления: 2015-06-27; Просмотров: 429; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |