КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Структура информатики
Информатика, ее состав. Понятие информации, информационные процессы. Из истории ВТ
План лекции: 1. Структура информатики. 2. Понятие информации, ее измерение и свойства, информационные процессы. 3. Из истории вычислительной техники (до ЭВМ). 4. Принципы фон Неймана. 5. Поколения ЭВМ. Информатика – наука о законах, методах измерения, хранения, переработке и передачи информации при помощи ЭВМ.
В истории информатики можно выделить два периода: предысторию и историю. Важнейшие события первого периода: · Развитие устной речи (язык – средство хранения и передачи информации). · Возникновение письменности (внешняя память человека). · Книгопечатание (XVI в.) (первая информационная технология). · Успехи таких точных наук как математика и физика: математическая логика, средства связи. Второй период связан с возникновением ЭВМ. Рождение информатики обусловлено возникновением и бурным развитием кибернетики – науки об общих закономерностях в управлении и связи (1948 г. Норберт Винер «Кибернетика или управление и связь в животном и машине»). Развиваясь одновременно с развитием ЭВМ, кибернетика превращалась в более общую науку о преобразовании информации.
Информатика включает в себя следующие разделы: · теоретическая информатика – математическая дисциплина, использующая методы математики для построения и изучения моделей обработки, передачи и использования информации; · вычислительная техника – раздел, в котором разрабатываются общие принципы построения вычислительных систем; · программирование – деятельность, связанная с разработкой программного обеспечения (получило развитие благодаря появлению ЭВМ); · информационные системы – раздел информатики, связанный с решением вопросов по анализу потоков информации в различных сложных системах, их оптимизации, структурировании, принципах хранения и поиска информации; · искусственный интеллект связан с теоретической информатикой. Это направление возникло в 70-х годах прошлого века. Находит применение в робототехнике, экспертных системах.
Прикладная информатика обслуживает науку, технику, производство и другие виды деятельности человека путем создания и внедрения информационных технологий.
Понятие информации, ее измерение и свойства
Понятие «информация» (от лат. Information – «сведение», «разъяснение», ознакомление) является базовым. Его определение нельзя дать через другие, более просты понятия. В широком смысле информация – сведения об объектах, процессах реального мира, их свойствах, состояниях и отношениях, которые уменьшают имеющуюся в знаниях о них степень неопределенности или неполноты. В простейшем бытовом понимании это некоторые сведения, данные и т.п. Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения. Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж,)
Информация может существовать в самых разнообразных формах: a) текстов, рисунков, чертежей, фотографий; b) световых или звуковых сигналов; c) радиоволн; d) электрических и нервных импульсов; e) магнитных записей; f) жестов и мимики; g) запахов и вкусовых ощущений; h) хромосом, посредством которых передаются по наследству признаки свойства организмов и т.д. Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами. В определении количества информации существуют два подхода. Вероятностный (энтропийный) подход, который учитывает ценность информации для получателя. Получатель сообщения имеет определенные представления о возможных наступлениях некоторых событий. Эти представления недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшается эта мера после получения сообщения. Р. Хартли предложил в качестве меры неопределенности логарифм от числа возможностей: H= k log a m, где k – коэффициент пропорциональности; m – число возможных выборов; a – основание логарифма. При k =1 и a =2 получим выбор из двух возможностей. Такая единица называется бит. К.Шеннон обобщил формулу для случая, когда вероятности различных исходов опыта неодинаковы: Объемный подход, который принят в технике. Бит – один символ двоичного алфавита – минимальный объем информации. 1 байт=8бит. 1 килобайт = 210 байт 1 мегабайт = 210 килобайт 1 гигабайт = 210 мегабайт 1 терабайт = 210 гигабайт
Общая схема передачи информации: · источник информации; · канал передачи информации; · получатель информации.
Для удобства передачи информации, для ее хранения применяется кодирование – выражение данных одного типа через данные другого типа.
С точки зрения информации наиболее важными являются свойства: · объективность (более объективна та информация, методы которой менее подвержены субъективным характеристикам); · полнота (характеризует качество, определяет достаточность данных для принятия решения или создания новых данных на основе уже имеющихся); · достоверность (уменьшается с уменьшением полноты информации); · адекватность (соответствие объекту или явлению); · доступность (мера возможности получить конкретную информацию); · актуальность (степень соответствия информации текущему моменту времени); · защищенность (невозможность несанкционированного использования или изменения).
Информатика изучает процессы сбора, хранения и переработки информации, компьютер же является основным инструментом в этом процессе. Назначение компьютера – принимать, перерабатывать, хранить и выдавать информацию (числовую, символьную, графическую, звуковую…), которую компьютер воспринимает через свои периферийные устройства и устройства ввода. Поскольку в конечном итоге вся информация в компьютере представлена в числовой форме, то можно сказать, что компьютер предназначен для обработки чисел, т.е. вычислений («компьютер» переводится как «вычислитель»). Из истории вычислительной техники
История непосредственно ВТ начинается с середины ХХ века. Рассмотрим некоторые этапы, предшествующие этому времени. · Счеты (в России появились в 15-16 веках, мире же – по некоторым данным примерно 1500 лет назад). · 1642 г. Блез Паскаль создал устройство, механически выполняющее сложение чисел. · 1673 г. Годфрид Вильгельм Лейбниц изобрел арифмометр, механически выполняющий 4 арифметических действия (тогда даже существовала специальная профессия – счетчик – человек, работающий с арифмометром). · В 1-ой половине XIX в. английский математик Чарльз Бэббидж делал попытки построить универсальное вычислительное устройство – аналитическую машину, которая должна была - выполнять вычисления без участия человека, исполняя программы, вводимые с помощью перфокарт (уже применяемых в то время на ткацких станках), - иметь «склад» для запоминания данных и промежуточных результатов. Однако техника того времени не позволила воплотить эти идеи в жизнь. · В конце XIX Герман Холлерит в Америке изобрел счетно-перфорационные машины, данные в которые вводились с помощью перфокарт. Он основал фирму, давшую позднее начало известной фирме IBM. · 1882 г. Выдающийся русский математик и механик Пафнутий Львович Чебышев (1821 - 1894) построил машину для выполнения арифметических операций над числами · 1894 г. Русский инженер В.Т. Однер построил арифмометр, некоторые черты которого сохранились до середины XX в. · 1904 г. Академик Алексей Николаевич Крылов (1863 - 1945) построил механическую вычислительную машину для решения дифференциальных уравнений. Т.о. был накоплен достаточно большой опыт в построении электромеханических вычислительных устройств. Другой предпосылкой было развитие электроники. · 1904 г. Джон Амброз Флеминг (Великобритания, 1849 - 1945) изобрел первый ламповый диод. · 1906 г. Ли Де Форест (США, 1873 - 1961) – первый триод. · Эра ЭВМ начинается с изобретения лампового триггера. Это открытие сделали независимо · В 1937 г. к идее автоматической цифровой ЭВМ приходит Дж. Атанасов, доцент колледжа штата Айова (США). В 1939 г. со своим аспирантом Кл. Берри он создал работающую настольную модель ЭВМ. · В конце 30-х годов Сергей Алексеевич (Институт электротехники АН УССР) приступил к конструированию ЭВМ, работающей в двоичной системе счисления. · 1943 г. Американец Говард Эйкен, используя идеи Бэббиджа, на основе электромеханических реле построил на одном из предприятий фирмы IBM машину «Марк - 1». · 1941 г. Немецкий инженер Конрад Цузе переоткрыл идеи Бэббиджа и построил аналогичную машину. · В 1941 г. профессор физики Джон Мочли ознакомился с проектом Атанасова и предложил работу в этом направлении. · 1945 г. К работе привлечен американский математик Джон фон Нейман. Он подготовил доклад, в котором сформулировал общие принципы функционирования универсальных вычислительных устройств (так называемый проект «Принстонские машины»).
Принципы фон Неймана Компьютер должен иметь следующие устройства: · арифметико-логическое устройство, · устройство управления, · запоминающее устройство (память) · внешние устройства
С помощью внешнего устройства в память компьютера вводится программа. Устройство управления считывает содержимое ячейки памяти, где находится 1-ая команда программы и организует ее выполнение (выполнение арифметических и логических операций, запись результатов в память, ввод или вывод данных). Считывается команда из следующей ячейки. Однако порядок может быть изменен с помощью команд перехода, который осуществляется в случае выполнения некоторых условий. Т.о. управляющее устройство выполняет программы автоматически. Оно может обмениваться информацией с памятью, внешними устройствами. Результаты выполнения программы должны быть выведены на внешнее устройство.
Дата добавления: 2014-01-07; Просмотров: 626; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |