Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Кодирование звуковой информации

Кодирование графических изображений

Кодирование символов

Если каждому символу алфавита поставить в соответствие целое число (порядковый номер), то можно с помощью двоичного кода кодировать любую текстовую информацию. Мы знаем уже, что 8 разрядов достаточно для кодирования 255 символов. Но пронумеровать символы можно по-разному, значит, для разных кодов необходимо применять различные стандарты.

На сегодняшний день наиболее часто используется система кодирования, разработанная институтом стандартизации США (ANSI – American National Standard Institute), которая называется ASCII (American Standard Code for Information Interchange). В этом стандарте две таблицы с номерами от 0 до 127 (базовая) и от 128 до 255 символов (расширенная). В базовой таблице – первые 32 кода – управляющие (не соответствующие никаким символам), затем с 32 по127 – символы английскому алфавита, знаков препинания и т.д.

По существу ASCII – международный стандарт, хотя в СССР действовала система кодирования КОИ – 7 (Код Обмена Информацией, семизначный). Во второй, расширенной части системы кодирования, находятся коды национальных систем кодирования. Отсутствие единого стандарта здесь привело к множественности одновременно действующих кодировок. Так, известна кодировка русского алфавита:

1) Windows-1251 (форма Microsoft), которая используется для большинства локальных компьютеров;

2) КОИ-8 – используется в компьютерных сетях в российском секторе Интернета;

3) международный стандарт ISO – используется редко.

В перспективе, мы перейдем на систему 16-разрядного кодирования, которая получила название UNICODE и которая позволяет обеспечить универсальные коды для 65536 различных символов. В этом случае потребуется только одна таблица для кодирования большинства языков планеты.

Изображение состоит из мельчайших точек. Линейные координаты и такие свойства точки, как яркость, цвет можно выразить с помощью целых чисел, а следовательно использовать двоичный код.

Это наиболее поздние методы и поэтому наиболее далеки от стандартизации.

Метод FM (более ранний) – основан на том, что звук раскладывается на последовательность простейших гармонических сигналов разных частот – синусоиды. Синусоида имеет параметры A, f, φ, которые можно описать числами (кодом).

Метод таблично-волнового синтеза. Сущность этого метода состоит в том, что используются для представления звука реальные образцы, которые составляют заранее разработанные таблицы. Эти образы называются сэмплами. Для звука можно устанавливать такие характеристики, как тип инструмента, высоту, продолжительность и интенсивность


Меры информации

Мера информации может быть: синтаксическая, семантическая, прагматическая.

Синтаксическая мера оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Количество информации на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенного состояния системы (энтропии).

Семантическая мера определяет смысловое содержание информации. Семантическая мера связывает семантические свойства информации со способностью пользователя принимать поступившие сообщения. Для этого используется понятие тезауруса пользователя.

В зависимости от соотношения между смысловым содержанием информации S и тезаурусом пользователя Sp, изменяется и количество семантической информации Ic, воспринимаемой и включаемой в свой тезаурус. Максимально это количество, если информация понятна и несет ранее неизвестные пользователю (отсутствующие в его тезаурусе) сведения. Величина эта относительна.

Прагматическая мера определяет полезность информации и также является относительной.

ЭВМ оперирует с абстрактной информацией, поэтому в этом случае представляет интерес в основном синтаксическая мера.

Объем данных

Объем данных Vg – измеряется количеством символов, разрядов в сообщении. В различных системах счисления один разряд имеет различный вес и, соответственно, меняется единица измерения данных:

· в десятичной системе счисления – дит;

· в двоичной системе счисления – бит (bit – binary digit).

В качестве единицы информации Клод Шеннон предложил принять один бит (англ. bitbi nary digi t — двоичная цифра). Бит — наименьшая единица измерения информации. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Количество информации

Количество информации на синтаксическом уровне – мера снятой неопределенности.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. Формула Хартли: I = log2N

Американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = — (p1log2 p1 + p2 log2 p2 +... + pN log2 pN),
где p i — вероятность того, что именно i -е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1,..., pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

Практически, количество информации всегда меньше или равно объему данных.

 

<== предыдущая лекция | следующая лекция ==>
Кодирование чисел | Лекция 3. Сбор, передача, обработка и накопление информации
Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 321; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.018 сек.