Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Кодовое расстояние

Степень отличия любых двух кодовых комбинаций характеризуется расстоянием между ними в смысле Хемминга или просто кодовым расстоянием. Оно выражается числом символов, в которых кодовые комбинации отличаются одна от другой, и обозначается через d.

Чтобы получить кодовое расстояние между двумя какими-либо комбинациями двоичного кода, достаточно подсчитать число единиц в сумме этих комбинаций по модулю 2. Например:

d=7

Так определим кодовое расстояние в коде Грея:

 

здесь d=const t=1

N10 N2 d2 Nгр dгр

В коде Грея все кодовые комбинации информационные, минимальное кодовое расстояние dmin = 1. Такие коды называются беизбыточными.

Как мы отмечали ранее, количество информации в бинарном алфавите определится числом возможных комбинаций «0» и «1», т.е. числом размещений из n элементов с повторениями по l.

M=I=2l (т.к. n = 2) (4.29)

Как уже отмечалось такие коды не помехоустойчивые и, следовательно, для увеличения помехоустойчивости кода необходимо ввести избыточность (ввести дополнительный символ).

Пусть имеется некоторое сообщение, состоящее из n символов двоичного кода (последовательность «0» и «1»), тогда количество единиц равно m, количество нулей равно n-m. Добавим к n – мерной последовательности n + 1 символ такой («0» или «1»), чтобы количество «1» (единиц) стало четным

(1+m)=2k (k<m<n)

Т.о. создается признак, по которому можно судить об искажениях в процессе передачи, обусловленный наличием избыточных символов.

Код не обнаруживает искажений четного числа символов. Такой код называется кодом Хемминга.

В общем случае, число избыточных символов может быть больше одного (т.е. k).

Тогда из 2n различных входных комбинаций образуется 2n+k различных выходных последовательностей.

Назовем число 2n комбинаций разрешенными, тогда

2n+k =2nзапрещенныекодовыекомбинации.

Искажение информации сводится к тому, что каждая из 2n разрешенных кодовых комбинаций может трансформироваться в любую другую, то есть всего имеется возможных случаев передачи.

При этом имеем:

2n –случаев безошибочной передачи;

2n (2n -1) –случаев перехода в другие разрешенные комбинации (случай необнаруживаемых ошибок);

2n (2n+k -2n) – случаев перехода в неразрешенные комбинации (случай опознаваемых ошибок).

Следовательно, число опознанных ошибок от общего числа возможных случаев передачи составит:

(4.30)

Так для кода Хемминга, рассмотренного ниже, имеем

(4.31)

Т.о. на приемной стороне легко будет выявляться пришла разрешенная или неразрешенная комбинация, более того по типу неразрешенной комбинации можно восстановить исходную разрешенную комбинацию. При этом отношение числа исправленных кодом ошибок к числу обнаруживаемых определяется соотношением

(4.32)

Большинство разработанных до недавнего времени кодов предназначено для корректирования (обнаружения и исправления) взаимно независимых ошибок определенной кратности и пачек ошибок. Взаимно независимые это такие ошибки в передаваемой последовательности, для которых вероятность появления ошибочной комбинации зависит только от числа искаженных символов r и вероятности искажения одного символа p.

(назад в оглавление)

<== предыдущая лекция | следующая лекция ==>
Ошибка квантования кодера | Лекция 4. 4.1. Ошибки при передаче информации
Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 6127; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.008 сек.