Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Marketing Essentials

Задачі

Розв’язання.Задачу можна розв’язати методом перебору. Починаючи з більш коротких кодових комбінацій, з’ясовуємо, чи не збігається вона з початковою частиною кожної більш довгої. Якщо збіг має місце, коротку кодову комбінацію вилучаємо.

Приклади розв’язання задач

Задача 7.2.1

Чи можна побудувати нерівномірний код, що однозначно декодується, до складу якого входять кодові комбінації з такими довжинами: ?

Розв’язання. Необхідною умовою побудови нерівномірного коду, що однозначно декодується, є виконання нерівності Крафта. Підставивши значення довжин кодових комбінацій у (7.1), отримаємо

Нерівність Крафта не виконується, таким чином на поставлене в умові задачі запитання відповідь є негативною.

 

Задача 7.2.2

Яку мінімальну кількість кодових комбінацій необхідно вилучити із множини кодових комбінацій 00, 01, 10, 1110, 1111, 0, 101, 1000, 1001, 110, щоб ті, які залишаться, утворювали префіксний код? Що це за комбінації?

Рис. 7.3. Кодове дерево до задачі 7.2.2

Інший метод полягає в побудові кодового дерева, в якому є вузли, що відповідають усім кодовим комбінаціям, наведеним в умовах задачі, та вилученні тих кодових комбінацій, які відповідають некінцевим вузлам. Таке дерево зображено на рис.7.3. Некінцевим вузлам дерева відповідають кодові комбінації 0 та 10 (вони закреслені). Тобто, якщо із переліку кодових комбінацій, наведених в умовах задачі, вилучити всього дві комбінації, а саме: 0 та 10, то комбінації, що залишаться, будуть утворювати префіксний код.

Задача 7.2.3

Побудувати ефективні нерівномірні коди Хаффмена та Шеннона-Фано для кодування символів немарковського джерела з алфавітом ; ймовірності виникнення символів мають такі значення:

Розв’язання. Спочатку побудуємо нерівномірний код за методикою Шеннона-Фано. Згідно з алгоритмом упорядковуємо символи по незростанню ймовірностей та виконуємо перший поділ множини символів на дві підмножини. Однак цей поділ не є однозначним: перший варіант поділу – на та , другий варіант – на та . Обидва варіанти дають однакові суми ймовірностей появи символів підмножин: 0,4 та 0,6. Таблиці 7.3 та 7.4 відображають побудову кодів Шеннона-Фано для двох варіантів.

Таблиця 7.3

Кодова комбінація Номер поділу
0,4        
0,2      
0,15      
0,15      
0,1      

 

 

Таблиця 7.4

Кодова комбінація Номер поділу
0,4        
0,2      
0,15      
0,15      
0,1      

 

Середня довжина кодової комбінації для першого варіанта

;

для другого

.

Зрозуміло, що хоча б один з цих кодів (той, що має більшу середню довжину кодової комбінації) не є оптимальним. Таким чином методика Шеннона-Фано не гарантує оптимальності коду.

Для отримання коду Хаффмена будуємо кодове дерево (рис.7.4), приписуємо гілкам символи алфавіту двійкового коду та записуємо кодові комбінації: ; ; ; ; . Символи двійкового алфавіту приписувались гілкам дерева цілеспрямовано таким чином, щоб код цілком збігався з першим варіантом коду, побудованим за методикою Шеннона-Фано. Цей код є оптимальним з середньою довжиною кодової комбінації . Ентропія джерела H (X) = 2,146 біт. Відносна різниця середньої довжини оптимального ефективного коду та ентропії джерела дорівнює

[ (2,2 – 2,146) / 2,146 ] ´ 100% = 2,52%.

 

х 1 х 2 х 3 х 4 х 5

Рис. 2.4. Кодове дерево до задачі 2.2.3

 

Задача 7.2.4

Маємо дискретне марковське джерело інформації, алфавіт котрого містить два символи { A, B }, а глибина пам’яті h = 1. Умовні ймовірності появи символів мають такі значення

.

Розробити нерівномірні ефективні коди для кодування слів джерела довжиною від 1 до 4. Прослідкувати наближення середньої довжини кодової комбінації (в розрахунку на один символ джерела) до ентропії джерела. Закодувати розробленими кодами послідовність із 24 символів ВВВВВААААААААААААААААААА, яку згенерувало джерело.

Розв’язання. Для розрахунку ймовірностей появи слів на виході джерела та його ентропії необхідно знати безумовні ймовірності p (A) та p (B) виникнення символів. Користуючись методикою, що застосована у задачі 7.2.6, легко отримати p (A) = p (B) = 0,5. За виразом (7.27) знаходимо значення ентропії H П1 = 0,47 біт.

Побудова коду для кодування окремих символів, тобто слів довжиною у один символ, дасть середню довжину кодової комбінації lcep (1) = 1, оскільки одному із символів, наприклад А, зіставляється 0, а іншому – 1.

Для побудови ефективних кодів, призначених для кодування слів джерела більшої довжини, необхідно знати ймовірності появи таких слів на виході джерела. Всі дані для розрахунків маємо. Так, ймовірність p (AB) появи слова АВ буде дорівнювати p (AB)= = p (Ap (B/A)=0,5×0,1 =0,05, а слова ВВАА:

p (BBAA)= p (Bp (B/Bp (A/Bp (A/A)=0,5×0,9×0,1×0,9 =0,04505.

Таблиці 7.5, 7.6, 7.7 відображають процес та результат побудови кодів Шеннона - Фано для кодування слів джерела довжиною у 2, 3 та 4 символи.

Таблиця 7.5

Слово джерела (СД) Ймовірність появи СД Кодова комбінація (КК) Довжина КК Номер поділу
АА 0,45        
ВВ 0,45      
АВ 0,05      
ВА 0,05      

 

Отримаємо значення середньої довжини lcep (N)кодової комбінації (в розрахунку на один символ джерела) для коду, розробленого для кодування слів джерела довжиною N:

lcep (2) = [(1+2)´0,45+3´2´0,05]/2 = 0,825;

lcep (3) = [(1+2)´0,405+(4´3+5)´0,045+6´2´0,05]/3 = 0,68;

lcep (4) = [(1+2)´0,3645+(4+5´5)´0,0405+(7+8´5)´0,0045+

+9´2´0,0005]/4 = 0,622.

 

Таблиця 7.6

Слово джерела (СД) Ймовірність появи СД Кодова комбінація (КК) Довжина КК Номер поділу
ААА 0,405        
ВВВ 0,405      
ААВ 0,045      
АВВ 0,045      
ВВА 0,045      
ВАА 0,045      
АВА 0,005      
ВАВ 0,005      

 

Відносна різниця між середньою довжиною кодової комбінації та ентропією джерела для побудованих кодів складає 75%, 44%, 32%. При збільшенні довжини N слів, що підлягають кодуванню, середня довжина lcep (N) кодової комбінації буде асимптотично наближатися до ентропії джерела.

Можна переконатися, що коди, побудовані за методикою Хаффмена, в даному випадку будуть мати такі ж середні довжини кодових комбінацій. Це означає, що всі отримані коди є оптимальними, але кожен для свого джерела. Перший – для джерела, алфавіт, якого складається із чотирьох символів { AA, BB, AB, BA }, ймовірності появи яких наведені в табл. 7.5, другий – для джерела із алфавітом потужності 8 (табл. 7.6), третій – для джерела із алфавітом потужності 16 (табл. 7.7); тобто для джерел з укрупненим алфавітом відносно вихідного джерела, яке задане в умовах задачі. Всі укрупнені символи цих джерел мають такі ж ймовірності появи, що і відповідні слова, які генеруються вихідним джерелом. Це дозволяє побудовані для джерел коди використовувати для кодування послідовностей символів вихідного джерела.

 

Таблиця 7.7

Слово джерела (СД) Ймовірність появи СД Кодова комбінація (КК) Довжина КК Номер поділу
АААА 0,3645        
ВВВВ 0,3645      
АААВ 0,0405      
ААВВ 0,0405      
АВВВ 0,0405      
ВААА 0,0405      
ВВАА 0,0405      
ВВВА 0,0405      
ААВА 0,0045      
АВАА 0,0045      
АВВА 0,0045      
ВААВ 0,0045      
ВВАВ 0,0045      
ВАВВ 0,0045      
АВАВ 0,0005      
ВАВА 0,0005      

 

Щоб закодувати згенеровану джерелом послідовність символів побудованими кодами, поділяємо її на підпослідовності (слова) відповідної довжини та застосовуємо коди таблиць 7.5, 7.6, 7.7. В результаті отримаємо:

– для слів по два символи 0101000111111111, довжина закодованої послідовності L 2 = 16;

– для слів по три символи 010001111111, довжина закодованої послідовності L 3 = 12;

– для слів по чотири символи 01000111111, довжина закодованої послідовності L 4 = 11.

Задача 7.2.5

Розробити ефективний код для кодування послідовності символів на виході немарковського дискретного джерела інформації з алфавітом { A, B, C } та ймовірностями появи символів p (A) = 0,15; p (B) = 0,1; p (C) = 0,75. Відносна різниця між середньою довжиною кодової комбінації та ентропією джерела не повинна перевищувати 2%. Закодувати таким кодом послідовнісь довжиною у 30 символів

САССССССССССВССАССССВССВСААССС,

яку згенерувало джерело.

Розв’язання. Зменшення середньої довжини кодової комбінації на один символ джерела можна досягти, якщо будувати ефективний код для укрупненого алфавіту. Хоча ефективний нерівномірний код розробляється на основі статистичних характеристик джерела, знання цих характеристик не дає можливості розрахувати середню довжину кодової комбінації без побудови коду.

Тому шлях розв’язання задачі повинен бути таким. Послідовно укрупнюємо алфавіт; для кожного укрупнення будуємо нерівномірний ефективний код, розраховуємо середню довжину кодової комбінації на один символ джерела та перевіряємо, чи задовольняються вимоги до неї. Процес укрупнення припиняємо, як тільки ці вимоги задовольняються.

Будуємо ефективний код для кодування окремих символів джерела. На рис. 7.5 зображено кодове дерево, що відповідає коду Хаффмена для такого джерела. Аналізуючи шляхи від кореневого вузла до кінцевих вузлів, знаходимо, що для символу A довжина кодової комбінації дорівнює 2, для символу B – 2, для символу С – 1. Середня довжина lcep (1) = 1 кодової комбінації для кодування по одному символу джерела

lcep (1) = 2× p (A) + 2× p (B) + 1× p (C) = 2(0,15+0,1)+1×0,75 = 1,25.

Ентропія джерела

H = – p (Alog 2 p (A) – p (Blog 2 p (B) – p (Clog 2 p (C) = 1,054 біт.

 

Рис. 7.5. Кодове дерево для символів джерела задачі 7.2.5

 

Відносна різниця між середньою довжиною кодової комбінації та ентропією джерела становить

[(1,25 – 1,054) / 1,054] ´ 100% = 18,6%,

що не задовольняє умовам задачі.

Укрупнюємо алфавіт, об’єднуючи по два символи джерела, знаходимо ймовірності появи укрупнених символів-слів та будуємо ефективний код для такого алфавіту. Оскільки джерело не має пам’яті, ймовірності появи слів отримаємо як добуток безумовних ймовірностей появи відповідних символів джерела, наприклад p (AB)= = p (Ap (B). Кодове дерево для цього варіанту зображено на рис.2.6. Результати побудови коду Хаффмена у відповідності з цим деревом наведені у табл.7.8.

Середня довжина кодової комбінації в розрахунку на один символ вихідного джерела має значення

lcep (2) = [1´0,5625+3´(2´0,1125+0,075)+4´0,075+6´(0,0225+

+2´0,015+0,01)]/2 = 1,069.

 

 

Рис. 7.6. Кодове дерево для укрупненого по два
символи алфавіту джерела задачі 7.2.5

 

Таблиця 7.8

Слово джерела (СД) Ймовірність появи СД Кодова комбінація (КК) Довжина КК

 

Відносна різниця між lcep (2) та ентропією джерела

[(1,069 – 1,054) / 1,054] ´ 100% = 1,4%,

що менше, ніж 2%, тобто такий код задовольняє вимогам.

Щоб закодувати послідовність, яку виробило джерело, поділяємо її на слова довжиною по 2 символи та застосовуємо для цих слів код табл.7.8. В результаті маємо

1010000011001010011001001011110.

Довжина двійкової послідовності дорівнює 31.

 

Задача 7.2.6

Розробити марковський алгоритм кодування для марковського джерела з алфавітом {A,B,C} та глибиною пам’яті h = 1. Умовні ймовірності виникнення символів задаються матрицею

.

Знайти відносну різницю між середньою довжиною кодової комбінації ефективного коду та ентропією джерела. Закодувати послідовність довжиною у 30 символів

АСАСВАСВАСВАВАВВАСВВАССАСВАСВА,

яку згенерувало джерело.

Розв’язання. Оскільки глибина пам’яті h = 1, кількість Q станів джерела дорівнює потужності його алфавіт, тобто Q = 3. Для кожного стану, який визначається попереднім символом на виході джерела, будуємо нерівномірний код. Застосовуючи методику Хаффмена або Шеннона-Фано, легко отримати коди, що наведені в таблицях.

Після символу А:

Таблиця 7.9

Символ, що очікується Умовна ймовірність Кодова комбінація (КК) Довжина КК
А p (A/A) = 0,15    
В p (B/A) = 0,10    
С p (C/A) = 0,75    

 

Після символу В:

Таблиця 7.10

Символ, що очікується Умовна ймовірність Кодова комбінація (КК) Довжина КК
А p (A/B) = 0,85    
В p (B/B) = 0,10    
С p (C/B) = 0,05    

 

Після символу С:

Таблиця 7.11

Символ, що очікується Умовна ймовірність Кодова комбінація (КК) Довжина КК
А p (A/C) = 0,15    
В p (B/C) = 0,70    
С p (C/C) = 0,15    

 

Знайдемо значення lcep / A середньої довжини кодової комбінації для коду, який застосовується після символу А:

lcep / A = lA/A × p (A/A) + lB /A × p (B/A) + lC /A × p (C/A) =

= 2 ´ 0,15 + 2 ´ 0,10 +1´ 0,75 = 1,25;

тут lA/A , lB/A , lC/A – довжини кодових комбінацій для кодування відповідно символів А, В, С коду, який застосовується після символу А. Аналогічно отримаємо значення lcep / B, lcep / C середніх довжин кодових комбінацій для кодів, що застосовуються після символів В та С відповідно:

lcep / B = 1,15; lcep / C = 1,3.

Середня довжина lcep кодової комбінації при застосуванні марковського алгоритму

lcep = lcep /A × р (А) + lcep /B × р (B) + lcep /C × р (C),

де р (А), р (В), р (С) – безумовні ймовірності появи символів А, В, С на виході джерела.

У задачі 7.2.6 розглянута методика їх отримання. Застосовуючи її, знаходимо

р (А) = 0,361; р (В) = 0,302; р (С) = 0,337.

Тоді

lcep = 1,237.

Ентропія джерела (див. задачу 7.2.6)

H = 1,004 біт.

Відносна різниця між lcep та Н становить

[(1,237 – 1,004) / 1,004] ´ 100% = 23,2%.

Закодуємо послідовність символів, наведену в умовах задачі. Таблиці 7.9 – 7.11 дають змогу виконати таке кодування. Виняток становить перший символ, оскільки незрозуміло, який для нього використовувати код. Є декілька шляхів побудови такого коду. Найпростіший – застосування рівномірного коду, наприклад, такого: A – 00; B – 01; C – 10. Більш раціональний – ефективний код, побудований з урахуванням безумовних ймовірностей появи символів. Один із варіантів такого коду A – 0; B – 11; C – 10. Обираючи цей варіант для кодування першого символу та застосовуючи коди таблиць 7.9 – 7.11 для подальших символів, отримаємо

0001011011011101100110101100001011011.

Кодова послідовність має 37 двійкових символів. Відзначимо, що при кодуванні символів джерела рівномірним двійковим кодом (мінімальна довжина такого коду в даному випадку становить 2) довжина кодової послідовності буде дорівнювати 60.

7.3.1. Значення ймовірностей pi , з якими дискретне джерело інформації генерує символи алфавіту, для різних варіантів наведені у таблиці 7.3.1. Побудувати нерівномірні ефективні коди за методиками Шеннона-Фано та Хаффмена для кодування символів джерела. Порівняти ефективність кодів.

Таблиця 7.3.1

№ варіанта p 1 p 2 p 3 p 4 p 5 p 6 p 7 p 8 p 9
  0,31 0,08 0,05 0,14 0,02 0,20 0,08 0,07 0,05
  0,11 0,16 0,03 0,26 0,04 0,05 0,03 0,02 0,30
  0,55 0,07 0,04 0,04 0,15 0,07 0,05 0,03  
  0,08 0,05 0,11 0,07 0,33 0,24 0,04 0,04 0,04
  0,22 0,18 0,04 0,06 0,03 0,04 0,06 0,29 0,08
  0,07 0,41 0,13 0,09 0,06 0,11 0,05 0,04 0,04
  0,35 0,15 0,06 0,02 0,03 0,08 0,02 0,07 0,22
  0,18 0,05 0,27 0,29 0,02 0,03 0,05 0,11  
  0,12 0,03 0,05 0,40 0,12 0,08 0,05 0,04 0,11
  0,52 0,12 0,05 0,18 0,04 0,03 0,06    
  0,26 0,14 0,05 0,10 0,07 0,11 0,02 0,20 0,05
  0,04 0,33 0,17 0,06 0,02 0,12 0,05 0,16 0,05
  0,28 0,03 0,04 0,15 0,05 0,04 0,07 0,34  
  0,07 0,15 0,06 0,39 0,05 0,14 0,08 0,03 0,03
  0,45 0,15 0,03 0,07 0,08 0,02 0,06 0,09 0,05
  0,09 0,44 0,18 0,09 0,03 0,05 0,02 0,02 0,08
  0,06 0,05 0,15 0,04 0,14 0,08 0,03 0,20 0,25
  0,22 0,05 0,16 0,05 0,05 0,03 0,02 0,34 0,08
  0,33 0,24 0,05 0,08 0,06 0,12 0,05 0,07  
  0,08 0,22 0,15 0,05 0,08 0,05 0,06 0,24 0,07

7.3.2. Алфавіт немарковського дискретного джерела інформації складається з чотирьох символів: { A, B, C, D }.Чисельні значення ймовірностей виникнення символів для різних варіантів наведені у таблиці 7.3.2. Побудувати нерівномірні ефективні коди за методикою Шеннона-Фано або Хаффмена (за Вашим бажанням) для кодування поодиноких символів джерела та слів довжиною у два символи. Оцінити та порівняти ефективність отриманих кодів. Побудованими кодами закодувати фрагмент тексту довжиною у 30 символів, що був вироблений джерелом. Фрагменти текстів для різних варіантів наведені у таблиці 7.3.3.

Таблиця 7.3.2

№ варіанта p (A) p (B) p (C) p (D) № варіанта p (A) p (B) p (C) p (D)
  0,15 0,63 0,05 0,17   0,16 0,43 0,07 0,34
  0,33 0,10 0,12 0,45   0,05 0,33 0,32 0,30
  0,25 0,07 0,53 0,15   0,27 0,15 0,45 0,13
  0,08 0,35 0,11 0,46   0,24 0,04 0,64 0,08
  0,32 0,38 0,24 0,06   0,14 0,16 0,29 0,41
  0,27 0,51 0,13 0,09   0,51 0,05 0,34 0,10
  0,65 0,15 0,06 0,14   0,28 0,22 0,07 0,43
  0,18 0,05 0,27 0,50   0,12 0,35 0,11 0,42
  0,12 0,53 0,25 0,10   0,08 0,45 0,24 0,23
  0,42 0,22 0,18 0,18   0,25 0,15 0,51 0,09

 

Таблиця 7.3.3

№ варіанта Фрагмент тексту
  BBDBDABDBACBBDBDBBBABDBBABBBBD
  AADABDDCABAADDADDBACDDDDDCADBA
  CCCCCABCDACBDCCCCCDCAACCADCDDC
  ABDBDDDCDDBDDDDDBDBDCBDCDBCBDB
  BCBABBBAACCBCCAAACABBBBABADAAA
  CBBABACAABCBCCABDABCBBBABBDBBB
  ACBABAAAADDAADBAADAADBAAAAAADA
  CDDCDDDDCCCDDDDDCCCCDCDCBCBCDA
  BDBBDAABBBBCBDCBBBBBBBACCCBCBC
  CACBADBAAAABABABBABCAACCADACBA
  BBDBADABCBBBBADADABADBACBBABCA
  DBDBCBABCDBDCBDCCCBCBBDBBCBDCC
  BACCBCCCCCADBAAABABABACDCBCACC
  CCCACBCACCAACACDCCCCCACACACAAC
  DDDACDDCDCCCCBDCCDBBCDBADCAABD
  AAADAAAAAADAACBCACACCACCAACBAC
  DDAACBCABDAAABCDAADDADDDCBABDB
  ABBDDDBBDBCDBDDBBDDDBDADBDDDDD
  CADDDDCDBBDBADCBDADBBABCBCDBAB
  CBCACCADCCCCDCCACCDDDABCCACBAD

 

2.3.3. Алфавіт марковського дискретного джерела інформації, що має глибину пам’яті h = 1, складається з трьох символів: { A, B, C }. Чисельні значення умовних ймовірностей виникнення символів для різних варіантів наведені у другому стовпці таблиці 7.3.4. Побудувати нерівномірні ефективні коди за методикою Шеннона-Фано або Хаффмена для кодування поодиноких символів джерела та слів довжиною у два символи. Розробити марковський алгоритм для кодування символів джерела. Оцінити і порівняти ефективність отриманих кодів та марковського алгоритму. Побудованими кодами закодувати фрагмент тексту довжиною у 30 символів, що був вироблений джерелом. Фрагменти текстів для різних варіантів наведені у третьому стовпці таблиці 7.3.4.

 

Таблиця 7.3.4

№ варіанта Фрагмент тексту
  ACBBABCBBABCCBA BCBCBABCBCACBBC
  BCACCCABCCCAACA CCCCABCBBBBBBBA
  CCAACCBBCCACCAC CCCBCCCCCBCBCCC
  ACBCACAAAACCACA ACABCCABCACACAA
  AABCBAAABBABAAA AAAABBBAAABCBBC
  ABABABACCCCCCAB ABAAAACCCABBACC
  ACBBBBCBACBACAC ACBACBBACACBACB
  ACBCBAABAABACAA AAAAABAAACAACBC
  CBCBCCACAAABBCA ABBCBCAAAACABCB
  BABBCACBBACCACC BCABBCCBBBBCACC
  BCCCCBCCCABCBCB CACCCBCCCCCCCCB
  BCABCABCCABABCC CABABCABCBACAAB
  CCACAACCABCCCAB CAAABCACCBABABA
  CABAAAABCAAACAB CBAAACAAAACACCA
  BACBAAABCBACBCB CBCBAABCBBCBAAB
  CABBBBACBCBBBBA BBBABBBABBBABBB
  CACACCCCCBBCCAC CCCCCCCACCBACAA
  CCBACBACCBBAACB AACBABAABCBACBA
  ACAACCACACCBACA CCBCABACAAACAAC
  BCBCBCACBCCBBBB BABBBBBBBBCBBBB

 

ЛІТЕРАТУРА

 

1. Арманд В.А., Железняков В.В. Штриховые коды в системах обработки информации. – М.: Радио и связь, 1989. – 92 с.

2. Берлекэмп Э. Алгебраическая теория кодировния. – М.: Мир, 1971. – 477 с.

3. Блейхут Р. Теория и практика кодов, контролирующих ошиб-ки: Пер. с англ. – М.: Мир, 1986. – 576 с.

4. Бузников С.Е., Кафаров А.А., Матвеевский В.П. Системы и устройства штрихового кодирования / Автоматическая идентификация материальных потоков /. – М.: Знание, 1990. – 64 с. – / Новое в жизни, науке, технике. Сер. “Радио, электроника и связь”, № 4 /.

5. 3144-95. Державний стандарт України. Коди та кодування ін-формації. Штрихове кодування. Терміни та визначення. – Чинний з 1996 р.

6. Жураковский Ю.П., Полторак В.П. Теорія информації та кодування: Підручник. – К.: Вища шк., 2001. – 255 с.

7. Кодирование информации (двоичные коды): Справочник / Н.Т.Березюк, А.Г.Андрущенко, С.С.Мощицкий и др. – Харьков: Вища шк., 1978. – 252 с.

8. Кузьмин И.В., Кедрус В.А. Основы теории информации и кодирования. – К.: Вища шк., – 1986. – 238 с.

9. Теория кодирования: Пер. с яп. / Т.Касами, Н.Токура, Е.Иве- дари, Я.Инагаки. – М.: Мир, 1978. – 576 с.

10. Цымбал В.П. Теория информации и кодирование. – К.: Вища шк., 1992. – 263 с.

11. Цымбал В.П. Задачник по теории информации и кодированию. – К.: Вища шк., 1976. – 276 с.

12. Яглом А.М., Яглом И.М. Вероятность и информация. М.: Наука, 1973. – 512 с.

 

Филип Котлер

<== предыдущая лекция | следующая лекция ==>
Теоретичні положення | 
Поделиться с друзьями:


Дата добавления: 2014-10-17; Просмотров: 331; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.1 сек.