КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Список вопросов к зачету
КОМПЬЮТЕРНЫЕ ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ Полякова Ольга Иосифовна Корнеенко Ольга Емельяновна Учебное издание Практическое пособие
Редактор В.И. Шкредова Корректор В.В. Калугина Компьютерная верстка
Лицензия № 02330/0133208 от 30.04.04 Подписано в печать Формат Бумага писчая №1. Гарнитура «Таймс». Усл.п.л. Уч.-изд.л. Тираж 100 экз. Заказ №
Отпечатано с оригинала-макета на ризографе учреждения образования «Гомельский государственный университет Лицензия № 02330/0056611 от 16.02.04 246019, г.Гомель, ул.Советская, 104
1. Понятие информации. Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы. 2. Виды информации и ее свойства. графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира; звуковая (акустическая) — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретением звукозаписывающих устройств в 1877 г. ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации; текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;
числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами — цифрами, причем системы кодирования (счисления) могут быть разными; видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино. Основные свойства информации: Кроме этого информация обладает еще следующими свойствами:
3. Способы представления информации. Информационное поле - это находящаяся в поле зрения оператора часть пространства, предназначенная для передачи информации, представленной совокупностью оптических образов.
Применяют три основных способа: 1) буквенно-цифровой; 2) в виде специальных условных знаков; 3) с помощью линий, площадей, геометрических фигур.
4. Универсальность дискретного (цифрового) представления информации. Достоинства дискретного (цифрового) представления информации: • простота • удобство физической реализации • универсальность представления любого вида информации • уменьшение избыточности сообщения • обеспечение защиты от случайных искажений или нежелательного доступа 5. Двоичное представление информации. Двоичное представление информации. При конструировании компьютеров был выбран двоичный алфавит {0, 1}, что позволило использовать достаточно простые устройства для представления и автоматического распознавания программ и данных. Именно простота сделала этот принцип кодирования таким распространенным. Наряду с этим свойством двоичное кодирование обеспечивает удобство физической реализации, универсальность представления любого вида информации, уменьшение избыточности сообщения, обеспечение защиты от случайных искажений или нежелательного доступа. Наиболее распространены кодировки компьютерных символов: ASCII, Win1251, ДКОИ-8.
6. Способы измерения количества информации. 1. Содержательный подход. 2. Алфавитный подход. 3. Вероятностный подход. 1. Содержательный подход. Количество информации, заключенное в сообщении, определяется объемом знаний, которое оно несет приемнику информации (получающему человеку). Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного, наперёд заданного, множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. Формула Хартли: I = log2 Пример. В лотерейном барабане 32 шара. Сколько информации содержит сообщение о первом выпавшем номере? Решение. Выпадение любого из шаров равновероятно. Поэтому количество информации о первом выпавшем номере можно найти из уравнения 2I=32 Отсюда I=5. Примеры равновероятных сообщений: а) при бросании монеты выпала решка или орел; б) на странице книги: количество букв чётно или нечётно. Примеры не равновероятных сообщений. Для сообщения «первой выйдет из дверей здания женщина» или «первым выйдет из дверей здания мужчина» значение зависит от того, о каком здании идет речь. Если это станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины. А если это военная казарма? А если это женская консультация? 2. Алфавитный подход. Позволяет определить количество информации, заключенной в тексте. Пусть i – количество информации, которое несет один символ, вычисляется по формуле: i = log2N, где N – мощность данного алфавита. Тогда количество информации во всем тексте I может быть определено как I = i * K, где К – количество символов в тексте. Пример. Книга, набранная на компьютере, имеет 150 страниц, на странице 40 строк, в каждой строке 60 символов. Каков полный объем информации? Решение. Мощность компьютерного алфавита равна 256. Один символ несет один байт информации. Объем всей информации: 150 * 40 * 60 = 360 000 байт. 3. Вероятностный подход. Определяет количественную связь между вероятностью появления некоторого события (р) и количеством информации в сообщении о наступлении этого события, учитывающую возможную неодинаковую вероятность сообщений в наборе: i = log2(1/p). Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. следующую формулу определения количества информации: I = – (p1log2 p1 + p2 log2 p2 +... + pN log2 pN), где pi – вероятность наступления i – го события из набора, в котором может быть N событий. Заметим, что при равных вероятностях p1,..., pN, каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.
7. Содержание и характеристики базовых информационных процессов: сбора, хранения, обработки и передачи информации
Дата добавления: 2014-12-26; Просмотров: 480; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |