Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

ВВЕДЕНИЕ. В последние годы в различных издательствах вышло значительное количество книг по основам информатики

В последние годы в различных издательствах вышло значительное количество книг по основам информатики, предназначенных для студентов разных направлений. Там представлен широкий спектр изданий. Не во всех из них вы сможете найти необходимую информацию для освоения базовых основ курса, подготовки к тестированию. В данном пособии собраны материалы, позволяющие с помощью одной книги освоить требуемый объем знаний.

Данное пособие ориентируется на особенности курса информатики, изучаемого в Сибирском институте бизнеса, управления и психологии для студентов экономистов, юристов и психологов.

Теоретическое описание дополняется списком вопросов для повторения, практическими заданиями. Некоторые темы завершаются небольшими тестовыми заданиями, позволяющими проверить свои знания. Большинство заданий имеют ответы, с которым можно свериться.

Базовой основой при написании данного учебного пособия послужили материалы Шауцуковой Лейлы Залим-Гериевны (http://www.kbsu.ru/~book) [68], а также Поповой Ольги Владимировны (http://www.klyaksa.net/htm/kopilka/uchp/index.htm) [66], за что приносим им свою искреннюю благодарность.

 

ГЛАВА 1. ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ИНФОРМАТИКИ

1.1. ПОНЯТИЕ ТЕРМИНА "инфоpматика"

Термин "информатика" (франц. informatique) происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика".

Широко распространён также англоязычный вариант этого термина — "Сomputer science", что означает буквально "компьютерная наука".

Инфоpматика это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности [13].

Информатика базируется на компьютерной технике и немыслима без нее.

Российский академик А.А. Дородницин выделяет в информатике три неразрывно и существенно связанные части — технические средства, программные и алгоритмические [13].

Технические средства, или аппаратура компьютеров, в английском языке обозначаются словом Hardware, которое буквально переводится как " твердые изделия ".

Для обозначения программных средств, под которыми понимается совокупность всех программ, используемых компьютерами, и область деятельности по их созданию и применению, используется слово Software (буквально — " мягкие изделия "), которое подчеркивает равнозначность самой машины и программного обеспечения, а также способность программного обеспечения модифицироваться, приспосабливаться и развиваться.

Программированию задачи всегда предшествует разработка способа ее решения в виде последовательности действий, ведущих от исходных данных к искомому результату, иными словами, разработка алгоритма решения задачи. Для обозначения части информатики, связанной с разработкой алгоритмов и изучением методов и приемов их построения, применяют термин Brainware (англ. brain — интеллект).

1.2. ПОНЯТИЕ ТЕРМИНА "инфоpмаЦИЯ". ИЗМЕРЕНИЕ КОЛИЧЕСТВА ИНФОРМАЦИИ

Термин "информация" происходит от латинского слова " informatio ", что означает сведения, разъяснения, изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке [13].

Можно выделить, по крайней мере, четыре различных подхода к определению понятия "информация".

В первом, " обыденном ", слово информация применяется как синоним интуитивно понимаемых слов: сведения, знания, сообщение, осведомление о положении дел.

Во втором, " кибернетическом ", понятие информация используется для характеристики управляющего сигнала, передаваемого по линии связи.

В третьем, " философском ", понятие информация тесно связано с такими понятиями, как взаимодействие, отражение, познание.

Наконец, в четвертом, " вероятностном ", информация вводится как мера уменьшения неопределенности и позволяет количественно измерять информацию, что чрезвычайно важно для информатики как технологической науки.

Клод Шеннон, американский учёный, заложивший основы теории информации — науки, изучающей процессы, связанные с передачей, приёмом, преобразованием и хранением информации, — рассматривает информацию как снятую неопределенность наших знаний о чем-то.

Количество информации в этой теории определяется по следующей формуле:

где:

I — количество информации,

n — количество возможных событий,

pi — вероятности отдельных событий.

Пусть потенциально может осуществиться некоторое множество событий (n), каждое из которых может произойти с некоторой вероятностью (pi), т. е. существует неопределенность. Предположим, что одно из событий произошло, неопределенность уменьшилась, вернее, наступила полная определенность. Количество информации (I) является мерой уменьшения неопределенности.

Для частного, но широко распространенного случая, когда события равновероятны (pi = 1/ n), величина количества информации I принимает максимальное значение:

Для измерения количества информации нужна единица измерения. За единицу количества информации приняли такое количество информации, при котором неопределенность уменьшается в два раза, т. е., например, когда в простейшем случае из двух возможных событий реализуется одно:

I = log22 = 1 бит

Эта единица измерения информации получила название бит (bit — от английского словосочетания BInary digit).

Например, при бросании монеты существует два равновероятных исхода (события): "орел" или "решка". Монета упала, событие произошло, количество информации равно 1 бит. Таким ситуациям с двумя возможностями приписывается начальная неопределенность: А = 1.

После бросания монеты конечная неопределенность: К = 0.

Количество информации, полученное при бросании: I = А – К = 1 – 0 = 1.

В детской игре "Угадай число" первый игрок загадывает число (например, в диапазоне от 1 до 100), второй задает вопросы типа: "Число больше 50?" Ответ ("да" или "нет") несет информацию 1бит, так как. неопределенность (количество возможных событий) уменьшается в два раза. Оптимальная стратегия отгадывания состоит в делении на каждом шаге массива возможных чисел пополам. Действительно, именно в случае равновероятных событий (одинаковых по объему массивов чисел) количество информации, которое имеет максимальное значение.

При бросании шестигранного кубика может произойти шесть событий, а при бросании шарика в рулетке – тидцать шесть. Количество возможных событий N и количество информации I связаны между собой следующей зависимостью: N = 2I.

Так, при бросании равносторонней четырехгранной пирамиды (тетраэдра) вероятность ожидаемых событий равна четырем. 4 = 2I. Тогда: I = 2. Таким образом, при бросании пирамидки получена информация, равная двум битам.

В вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

- 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

- 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

- 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

- 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

- 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Пример. Книга содержит 100 страниц; на каждой странице -- 35 строк, в каждой строке -- 50 символов. Рассчитаем объем информации, содержащийся в книге.

Страница содержит 35 x 50 = 1750 байт информации. Объем всей информации в книге (в разных единицах):

1750 x 100 = 175000 байт.

175000 / 1024 = 170,8984 Кбайт.

170,8984 / 1024 = 0,166893 Мбайт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

 

<== предыдущая лекция | следующая лекция ==>
Учебное пособие | Передача и обработка информации
Поделиться с друзьями:


Дата добавления: 2014-01-06; Просмотров: 273; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.011 сек.