Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Общие сведения. Объем сигнала и количество информации

Передача сообщений

 

1.3. Передача сообщений. 1

1.3.1. Общие сведения. 2

Схема передачи. 2

Терминология. 4

Мера информации. 4

Объем сигнала. 9

Объем сигнала и количество информации. 10

Пропускная способность каналов связи. 11

Помехоустойчивость. 12

1.3.2. Кодирование. 15

Код Грея. 18

Код Шеннона-Фано. 18

Код Хемминга. 19

Циклический код. 20

Линейное кодирование. 20

Телемеханические коды.. 22

1.3.3. Сигналы и их характеристики. 34

Спектры сигналов. 34

Корреляционные характеристики сигналов. 38

1.3.4. Модуляция. 41

Амплитудные модуляции (АМ). 42

Частотная модуляция (ЧМ). 44

Импульсно-кодовая модуляция. 45

Манипуляция. 49

1.3.6. Пропускная способность линии связи. 51

Теорема Найквиста. 51

Теорема Котельникова. 51

Теорема Шенона-Хартли. 52

Беспроводные линии связи. 53

1.3.5. Телефонные линии связи. 55

Многоканальные системы. 57

Междугородняя телефонная связь. 57

1.3.6. Интерфейсы компьютерных систем.. 59

ПЕРЕЧЕНЬ ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ.. 59

ССЫЛКИ.. 61

Децибел. 61

Схема передачи. При автоматизации систем электроснабжения приходится строить систему при значительном удалении отдельных компонентов друг от друга. В связи с этим необходимо достаточно внимания уделять проблеме передачи информации через каналы связи. Это касается в первую очередь систем оперативного управления устройствами электроснабжения, для чего организуется диспетчерский пункт, связанный через каналы связи с несколькими контролируемыми пунктами. На каждом из контролируемых пунктов находится несколько объектов управления. В большинстве случаев организуется двухсторонний обмен информацией, но известны системы и с односторонним потоком информации, например радиоуправление освещением [6]. Схема передачи сообщения приведена на рис. 52.

 

Рис. 52. Схема передачи информации в системе телемеханики

Наиболее уязвимым звеном передачи информации является линия связи, уровень помех, воздействующих на нее трудно изменить. Помеха в общем случае может исказить сигнал, в результате приемник информации получит искаженное сообщение l’(t)≠l(t). Дальнейшее изложение выполнено согласно [7]. Различают следующие виды помех: аддитивная и мультипликативная .

Терминология. Дадим несколько определений. Заметим, что приведенные ниже понятия могут иметь и другие определения, отличающиеся рассматриваемыми аспектами.

Информация – совокупность сведений о каком-либо событии, явлении, процессе, которая характеризует их с точки зрения тех или иных параметров, представляющих интерес для пользователя

Сообщение – совокупность знаков содержащих информацию.

Сигнал – физический процесс, отображающий (несущий) передаваемое сообщение. Формируется путем изменения какого-либо параметра физического процесса по закону сообщения.

Канал связи – совокупность устройств, обеспечивающих передачу сигнала от некой точки А до точки Б (см. рис. 52).

Линия связи – среда, используемая для передачи сигнала от передатчика к приёмнику.

Помехоустойчивость – способность системы противодействовать воздействию помехи.

Кодирование – отождествление передаваемых сообщений с набором букв или цифр. Каждое сообщение оказывается представимым в виде цифрового слова, или некоторого числа (кодовой комбинации).

Код – правило, по которому записываются различные кодовые слова или числа.

 

Мера информации. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке. Шеннон рассматривает информацию как снятую неопределенность наших знаний о чем-то. “Классическая” шенноновская теория информации позволяет измерять информацию текстов и сообщений, исследовать и разрабатывать приемы ее кодирования в передатчике и декодирования в приемнике, измерять пропускную способность канала связи между ними, вычислять уровень шума в канале и минимизировать его воздействия. Винер, "отец" кибернетики дал такое определение: «Информация - это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств». Предметом большинства теоретико-информационных работ была лишь “микроинформация” - информация, которую система не запоминает и которая является мерой разнообразия возможных микросостояний, определяющих данное макросостояние системы. Развитие работ А.Н. Колмогорова привели к определениям понятия алгоритмического количества информации. Алгоритмическое количество информации рассматривалось как минимальная длина программы (сложность), позволяющая однозначно преобразовывать одно множество в другое. Макроинформация принципиально отличается от упомянутой выше микроинформации именно тем, что системы ее запоминают. В биологии генетические тексты рассматриваются не как непосредственное зашифрованное описание порождаемых ими структур, а как описания алгоритмов их пространственно-временной реализации, или даже алгоритмы построения автоматов, реализующих эти алгоритмы. Информация по Г.Кастлеру представляет собой «запоминание случайного выбора» - изначально случайный, а затем запомненный выбор одного или нескольких осуществленных вариантов из всей совокупности возможных. Информация – это язык мира, понимаемого как живое целое. В информатике термин "информация" является первичным, неопределяемым.

Переводы статей основоположников теории информации (Хартли Р., Шеннона К. и др.) можно просмотреть здесь.

Понятие энтропия, широко используемое в теории информации рассмотрено здесь.

Единица измерения информации называется "бит". Ее определение звучит так: «Сообщение, уменьшающее неопределенность знаний человека в два раза, несет для него 1 бит информации». (Неопределенность знаний о некотором событии - это количество возможных результатов события).

Для передачи сообщения его часто преобразуют в дискретные сигналы. Последние можно рассматривать состоящими из n элементарных (единичных) сигналов. Единичный сигнал занимает, как правило, одну временную позицию. Каждый элементарный сигнал может иметь K различных значений. Величина K зависит от способов модуляции (очень часто К=2). Между числом сообщений М и n дискретными сигналами должно выполнять соотношение .

РальфХартли в 1928 году (Hartley R.V.L. Transmission of information) предложил следующую меру информации учитывающие физические, а не физиологические соображения

I=n· logaK = logaM

Из формулы следует, что неопределенность в системе тем выше, чем больше M. Основание a логарифма можно выбрать произвольно. Наиболее часто а=2. В этом случае единицей информации считается 1 бит. Если а=10 то – единица назвается Хартли, если а=е, то 1 нат. Мера Хартли справедлива при следующих допущениях: не рассматривается смысловая ценность информации, все М сообщений равновероятны и между элементарными сигналами отсутствует корреляция. Вероятность появления сообщения p=1/M.

Шеннон (1916-2001) в своих работах 1948-49 годов определил количество информации через энтропию - величину, известную в термодинамике и статистической физике как мера разупорядоченности системы, а за единицу информации принял то, что впоследствии окрестили "битом", то есть выбор одного из двух равновероятных вариантов. Шеннон получил формулу определения количества информации источника для случая, когда появление любого i-го сообщения из М возможных может иметь различную вероятность pi, при этом Spi=1 (i=1, 2, …, M).

Мерой информации сигнала состоящего из n элементов, каждый из которых может принимать одно из К значений (при вероятности появления символа j из К возможных - pj) будет

НИ и НС – называются энтропией источника и энтропией элементарного сигнала (т.е. среднее количество информации источника и элементарного сигнала).

Так, если у нас источник может иметь одно из равновероятных 16 состояний, и мы получили информацию о его состоянии (I = -16*1/16*log2(1/16) = log2(16) = 4), т.е. мы получили 4 бита информации. Если же источник мог иметь одно из двух состояний, одно с вероятностью 1/2 другое - 1/2, то энтропия источника равна 1. Для передачи этой информации нам потребуются разные сигналы. В первом случае либо один элемент с 16-ю состояниями или 4 элемента, каждый из которых имеет два состояния. Для второго достаточно одного элемента сигнала, который может принимать одно из двух состояний.

Можно показать, что мера Хартли соответствует максимальной возможной энтропии источника информации (при равновероятных сообщениях). Пример. Пусть имеется два источника информации с четырьмя возможными состояниями M=4 (т.е. каждый источник может выдать одно из четырех сообщений)

Источник_1

Сообщение i        
Вероятность pi 1/4 1/4 1/4 1/4
Логарифм log2 pj -2 -2 -2 -2
- pj ·log2 pj -1/2 -1/2 -1/2 -1/2

Энтропия (по Шеннону) составит

I1 = –(1/4·log2(1/4)+ 1/4·log2(1/4)+ 1/4·log2(1/4)+ 1/4·log2(1/4)) = 2

Мера информации по Хартли I1 = log2(4) = 2

 

 

Источник_2

Сообщение i        
Вероятность pi 3/4 1/12 1/12 1/12
Логарифм log2 pj -0.41504 -3.58496 -3.58496 -3.58496
- pj ·log2 pj -0.31128 -0.29875 -0.29875 -0.29875

Энтропия (по Шеннону) составит

I2 = –(3/4·log2(3/4)+ 1/12·log2(1/12)+ 1/12·log2(1/12)+ 1/12·log2(1/12))= 1.20752

 

Для передачи информации от источника с помощью сигнала необходимо выполнить соотношение Ни ≤ nHc. Если сигнал может обеспечить передачу с m информационными элементами, а имеет n>m, то сигнал обладает избыточностью R

R = (n-m) / n = 1 - n/m.

При передаче по каналу связи без помех избыточность не требуется. Если же канал имеет помехи, то избыточность используют для повышения помехоустойчивости передачи.

Наличие человека в системе учитывается при выборе параметров системы телемеханики. Возможности человека по восприятию информации уступает возможностям технических средств. Количество информации, которое нервная система человека способна передать в мозг при чтении текстов составляет примерно 16 бит/с, одновременно в сознании человек может удержать 160 бит. Время реакции на акустические и оптические сигналы находится в пределах 140-250 мс. Закон Меркаля (1885 г.) оценивает время реакции человека (Т, мс) на выполнение задания выбора из N объектов по выражению Т=200+180 * log2(N). При высокой способности человека к различению (1500 оттенков яркости, 330 уровней громкости, 2300 высот звука) одновременно он может различить не более 5-7 значений. Поэтому многие решения, принимаемые при создании систем телемеханики, учитывают указанные возможности человека.

Объем сигнала. В теории передачи информации часто используется трехмерное представление сигнала и вводят понятие объем сигнала Vc. Параметры сигнала отображают в следующих координатах: длительность сигнала (Tc), динамический диапазон (Dc) и ширина частотного спектра (ΔFc).

 

Динамический диапазон принято измерять в относительных логарифмических величинах. При измерении отношения мощностей сигналов динамический диапазон определяется по максимальной и минимальной мощности сигнала:

Часто используют единицу измерения децибел.

.

Примеры динамических диапазонов: лектор - 25-35 дБ, капелла - 70-90 дБ.

Ширина частотного спектра, например, для речи человека составляет 20 кГц (20-20000 Гц), из которого по телефонной линии принято передавать ширину 3,1 кГц (от 300 до 3400 Гц).

Аналогично вводится понятие объема для канала связи, вводя следующие координаты: длительность передачи (ТК), – динамический диапазон канала (DК), – полоса пропускания (ΔFК). Телефонные каналы имеют полосу пропускания 3,1 кГц (от 300 до 3400 Гц). Динамический диапазон канала определяется через отношение максимальной мощности канала Рмах к мощности помехи Рmin

Vk = Tk·DFk·Dk

Для передачи сигнала по каналу необходимо выполнение условие Vс ≤Vк. При этом возможно потребуется изменить параметры сигнала, чтобы обеспечивалось и достаточное условие: ΔFС ≤ΔFК; DС ≤DК ; ТС ≤ТК.

Объем сигнала и количество информации. Пусть сигнал имеет n элементарных символов с основанием кода K. В этом случае количество информации в сигнале I=n·log2K, а объем сигнала

VС = TС·DFС·DС = TС·DFС·log2(Pc/Pп)

где Pc – мощность сигнал, Pп - мощность помехи. Для сигнала длительностью Тс количество элементов сигнала n=Тс/Dt, где Dt – длительность элементарного сигнала. По теореме Котельникова спектр одиночного импульса может быть определен DFС = 1/ Dt. Получаем

Iс=n·log2K= Тс/Dt log2K= ТсDFС log2K.

Обычно К=U/ DU, где DU – порог чувствительности, в случае если уровень помех не превышает DU/2. В канале с помехами

Pп@U2п; Pс@U2с; К=Uс/ Uпк· Pс/ Pп,

где ак =const и зависит от характеристик помех и способа выбора DU.

Iс = ТсDFС log2к· Pс/ Pп) = ТсDFС log2 (Pс/ Pп) + ТсDFС log2 ак=

Vс + ТсDFС log2 ак.

Таким образом, в сигнале содержится полезная составляющая Vc и дополнительная информация, отражающая способ выделения градаций сигнала.

Пропускная способность каналов связи. Для канала связи без помех информация может передаваться неизбыточным сигналом, бит/с

с = DFc·log2K,

где K=Umax/Du – число возможных градаций сигнала,

Umax – максимальное значение сигнала,

Du – чувствительность приемника.

Для канала с помехой скорость достоверной передачи получена Шенноном

с = DFc·log2(1+Pc/Pп),

где Pc/Pп –отношение мощности сигнала к мощности помехи.

 

Помехоустойчивость. Помехоустойчивость оценивается вероятностью p появления помехи в приемнике. Примеры помехоустойчивости различных систем:

система передачи данных (СПД) – р=10-8 – 10-9

проводной телеграф – р=10-3 – 10-4.

телеграф (радиоканал) – р=10-2 – 10-3.

Системы телемеханики должны обеспечить высокую достоверность передаваемой информации в условиях недостаточной помехоустойчивости каналов связи. Требования к достоверности передачи информации изложены в [9]. Для обеспечения необходимой достоверности в сообщение кроме информационной составляющей приходится добавлять служебные элементы, позволяющие приемной стороне обнаруживать влияние помех.

Почти всегда в канале связи действует помеха. Существует много источников шума, один из главных тепловые шумы (Pп = k Q B, где Q – температура в градусах Кельвина, B – полоса пропускания приемника, а k – постоянная Больцмана). На практике существенно большее влияние оказывают различного рода наводки.

Наиболее важным при передаче информации является обеспечение ее достоверности. К критериям оценки достоверности относятся следующие вероятности:

вероятность правильного приема РПР;

вероятность ложного приема РЛ ПР;

вероятность защитного отказа (обнаружения искаженной информации) РЗО (обычно около 10-7);

вероятность потери сообщения РПОТ

вероятность подделки сообщения РПОД (не более одного сообщения в год).

Вероятность потери сообщения не является аналогом вероятности защитного отказа. Защитный отказ сопровождается сигналом о том, что была принята искаженная информация. В этом случае можно попытаться передать сообщение еще раз. В случае потери информации на приемной стороне ничего не будет принято. Такой случай имеет место, например, при искажении синхросигнала. В некоторых случаях системы работают в условиях постоянного поддержания синхронной работы источника и приемника. Однако большинство систем работают в режиме ожидания. Сообщение в случае, когда синхросигнал ожидается, будет безвозвратно потеряно.

Для оценки достоверности информации можно рассматривать все рассмотренные критерии, но Международный электротехнический комитет (МЭК) рекомендует выбирать два или даже один из них: РЛ ПР и РПОД. В зависимости от величины РЛ ПР по рекомендации МЭК все телемеханические каналы связи разделяются по достоверности на три класса: I1, I2, I3. Вероятность ложного приема PЛ.ПР рассчитывается для двоичного симметричного канала связи с учетом вероятности искажения одного бита в канале связи p 0 = 10 -4. Данное значение является характерным для канала связи среднего качества. Следующая таблица иллюстрирует достоверность систем различных классов и минимальное кодовое расстояние, которое они обеспечивают.

Классы достоверности систем передачи информации

Класс PЛ ПР для p0=10-4 РЛ ПРmax для p0=1/2 Число избыточных элементов k dmin
I 1 10-6 2-1    
I 2 10-10 2-4    
I 3 10-14 10-12   4 (6)

Система, дающая результаты, худшие, чем I 1, запрещена для эксплуатации.

Ложный прием будет зафиксирован, если избыточная часть будет соответствовать информационной. Помеха искажает каждый из контрольных символов с максимальной вероятностью 0,5, а все k контрольных символов будут искажены с вероятностью ≤ 0,5 k. Следовательно РЛ ПР max ≤ 0,5 k

 

Класс точности I1, может применяться в циклических системах ТИ, класс точности I2, рекомендуется применять в системах телесигнализации, класс I3 предназначен для передачи команд телеуправления.

<== предыдущая лекция | следующая лекция ==>
Примеры. Пусть R – радиус шара, Р – любая точка на сфере, а во внутренней точке Р0 помещен единичный заряд | Кодирование
Поделиться с друзьями:


Дата добавления: 2014-01-11; Просмотров: 4173; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.058 сек.