Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Алгоритмізація економічних процесів




План

ОСНОВНІ ПОНЯТТЯ ІНФОРМАТИКИ.

ВИКЛАДАЧ: ПАНЧЕНКО КАТЕРИНА МИКОЛАЇВНА

Тези лекцій

З ДИСЦИПЛІНИ «ІНФОРМАТИКА І КОМПЬЮТЕРНА ТЕХНІКА»


1. Визначення інформатики

2. Складові частини інформатики

3. Історія розвитку інформатики

4. Інформація

5. Визначення понять „алфавіт”, „символ”, „код”

Інформатика - наука, яка вивчає структуру і загальні властивості інформації, а також питання, пов'язані із збиранням, обробкою, зберіганням, пошуком, передаванням та використанням інформації в різних галузях людської діяльності, на базі сучасних електронних обчислювальних машин (ЕОМ), або комп'ютерів, та мереж.

Перші приклади ефективного застосування інформатики пов'язані з використанням ЕОМ для розрахунків з фізики, математики, механіки, аеродинаміки. З розвитком комп'ютерної техніки інформатика почала застосовуватися в галузі економіки та управління виробництвом з метою пошуку оптимальних рішень. Нині спостерігається застосування інформатики й у тих галузях науки, які раніше вважалися принципово неформалізованими, тобто недоступними для точних кількісних методів досліджень.

Отже, складовими частинами інформатики є:

• теорія інформації;

• обчислювальна техніка;

• теорія алгоритмів;

• теорія програмування;

• теорія зв'язку.

Перша сторінка в історії створення обчислювальних машин пов'язана з іменем французького математика, фізика і філософа Блеза Паскаля. У1641 році він сконструював механічний обчислювач, який давав можливість додавати і віднімати числа.

У1673 році видатний німецький математик Г. Лейбніц побудував першу лічильну машину, яка механічно виконувала всі чотири дії арифметики. Ряд найважливіших механізмів машини Лейбніца застосовувалися в обчислювальних машинах до середини XX століття.

У 1821 році англійський конструктор Томпсон налагодив серійне вироб­ництво лічильних пристроїв, які назвав арифмометрами. Протягом XIX століт­тя було створено багато конструкцій лічильних машин, підвищилась їх надій­ність, точність обчислень, зручність роботи на них. Істотний внесок у вдоско­налення лічильних машин здійснили вчені та конструктори Росії. Наприкінці XVIII століття було виготовлено машину Є. Якобсона, у 1828 році - Ф.М. Слободського, у 1846 році - математика П.Л. Чебишева. Винахід інженера з Петер­бурга В. Однера - арифмометр із зубчаткою, що мала змінну кількість зубців, відіграв особливу роль у розвитку обчислювальних машин. Його конструкція була настільки досконалою, що арифмометри Однера випускали з 1873 року прак­тично без змін протягом майже ста років.

У 1833 році англійський математик і інженер Чарльз Бебідж сформулював основні положення, які були покладені в основу конструкції обчислювальної машини принципово нового типу. Такі машини повинні були мати:

• «комору» для зберігання цифрової інформації;

• пристрій, який здійснював операції над числами з «комори» (Беббідж назвав цей пристрій «млином»);

• пристрій для керування послідовністю виконання операцій, передавання чисел з «комори» на «млин» і навпаки, тобто пристрій керування;

• пристрої для введення вхідних даних і виведення результатів, тобто пристрої введення/виведення.

Ч. Бебідж зробив спробу створити машину такого типу на основі механічного арифмометра, але виготовити діючу машину не довелося ні йому, ні його сину Цікаво, що першу програму для машини Бебіджа написала Ада Аугуста Лавлейс, дочка славетного англійського поета Джорджа Байрона.

Першу діючу програмно-керовану обчислювальну машину побудував у 1941 році німецький вчений Конрад Цузе. Елементною базою цієї машини були електромеханічні реле. Потім у 1944 році в США було створено також з використанням електромеханічних реле обчислювальну машину МАРК-1 (за проектом фізика Г. Айкена). Машина мала великі розміри і могла замінити лише десять обчислювачів з арифмометрами. Через малу швидкодію і низьку надійність ця машина практичного застосування не дістала.

Перша у світі діюча електронна обчислювальна машина (Electronic Numerical Integrator and Calculator) була створена в 1943-1946 роках у США під керівництвом Дж. Маучлі і Дж. Екерта. Елементною базою цієї машини були електронні лампи ектромеханічні реле. Машина ENIAC містила 18 000 електронних ламп і мала швидкодію 5000 операцій за секунду.

Значний внесок у розробку теоретичних основ побудови і функціонування обчислювальних машин зробили видатні американські математики Джон фон Нейман та К. Е. Шеннон. Саме Джон фон Нейман запропонував ви­користовувати в ЕОМ двійкову систему числення.

У1951 році в Києві під керівництвом академіка С.О. Лебедева була побудована перша вітчизняна електронно-обчислювальна машина МЭСМ(Малая электронно-счетная машина). Зазначимо, що ЕОМ на електронних лампах, які були поширені в 1950-ті роки, називають машинами першого покоління. Ці машини виконували десятки тисяч операцій за одну секунду і могли запам'ятовувати кілька тисяч чисел.

У 1960-ті роки на зміну ЕОМ першого покоління прийшли машини другого покоління, побудовані на базі напівпровідникових елементів. Швидкодія цих машин становила до кількох мільйонів операцій за секунду, значно збільшилася ємність запам'ятовуючих пристроїв, підвищилася надійність у роботі, а габари­ти машин і споживання електроенергії були зменшені. З'явилися перші засоби автоматизації розробки програм.

З розвитком мікроелектроніки наприкінці 1960-х і на початку 1970-х років ЕОМ почали виготовляти на базі інтегральних схем (1C). В одній такій мікроелектронній схемі об'єднувалися десятки транзисторів, діодів, резисторів, конденса­торів. Помітно зменшилися габарити і споживання електроенергії, збільшилися потужність і надійність ЕОМ. ЕОМ на базі інтегральних схем, назвали машинами третього покоління. Швидкодія цих машин становила десятки мільйонів опера­цій за секунду, ємність запам'ятовуючих пристроїв - кілька мільйонів чисел. З ЕОМ третього покоління подальшого розвитку набули й засоби автоматизації розробки програм для ЕОМ.

Середина 70-х років XX ст. характеризується створенням так званих великих інтегральних схем (ВІС), а початок 1980-х - надвеликих інтегральних схем (НВІС). На базі ВІС і НВІС були створені машини четвертого покоління - мікроЕОМ. До них належать й дуже поширені мікрокалькулятори та персональні комп'ютери (ПК).

На зміну машинам четвертого покоління прийшли ЕОМ п'ятого поколін­ня, можливості яких значно ширші від можливостей машин усіх попередніх поколінь, а спілкування з ними значно простіше.

Обчислювальна техніка призначена для зменшення трудомісткості, приско­рення й автоматизації опрацювання інформації.

Термін «інформація» визначає відомості, або повідомлення, знання про об'єктивно існуючі об'єкти і процеси, а також про їх зв'язки та взаємодію, що доступні для практичного використання людиною. Будь-яка сфера людської діяльності певним чином пов'язана з використанням інформації. Читаючи книжку, розглядаючи предмети, людина одержує і запам'ятовує інформацію. По­штою, телефоном, через радіо та телебачення, іншими засобами зв'язку люди передають та отримують інформацію, обмінюються нею.

Повідомлення й інформація належать до основних, не означуваних понять інформатики. Вони не визначаються через більш прості поняття. Зв'язок між по­няттями «повідомлення» та «інформація» можна визначити так: абстрактна інфо­рмація передається через певне повідомлення. Якщо з певного повідомлення лю­дина пізнає щось нове, вважається, що таке повідомлення містить у собі деяку інформацію. Ту саму інформацію можна передати з допомогою різних повідом­лень, наприклад, різними мовами. Існує досить багато мов, у тому числі - мова математики, мова програмування, мова людського спілкування тощо.

Особливе значення мають мови, в яких для передавання повідомлень вико­ристовуються довгоіснуючі носії інформації. Подання інформації на таких но­сіях називають листом. Прикладом може бути лист, що сприймається зором, чи лист, що сприймається на дотик сліпими.

Листи і газети - один із найстаріших способів передавання повідомлень шля­хом запису на довгоіснуючих носіях інформації. Крім паперових, у сучасній тех­ніці застосовуються намагнічені і світлочутливі плівки, світловідбиваючі поверхні, різноманітні електронні схеми тощо. При передаванні інформації з допомогою недовгоіснуючих носіїв повідомлень люди використовують різноманітні фізичні пристрої-телефон, радіо, телебачення. Пристрої, призначені для передавання інформації, називають пристроями зв'язку. Пристрій зв'язку складається звичай­но з передавача і приймача. Середовище, через яке повідомлення передається від передавача до приймача, називають каналом зв'язку.

Зміна в часі якоїсь фізичної величини, що забезпечує передавання пові­домлення, а тим самим і інформації, називається сигналом. Характеристика си­гналу, яка використовується для подання повідомлення, називається парамет­ром сигналу. Сигнал називається дискретним, якщо параметр сигналу може на­бувати тільки скінченну кількість значень. Повідомлення називаються дискрет­ними, якщо їх можна передавати за допомогою дискретних сигналів.

Запис знаків листа (графем) у деяку послідовність є мовним повідомленням у письмовій формі. Запис можна зробити й для усних повідомлень, якщо роз­класти усний текст на елементарні складові частини - фонеми, а під знаками мати на увазі ф9неми. Тобто знак - це елемент скінченної множини попарно різних елементів. Таку множину знаків називають набором знаків. Набір знаків, розміщених у певному порядку, називають алфавітом. Наприклад:

• алфавіт великих латинських літер:

А, В, С, D, Е, F, G, Н, І, J, К, L, М, N, О, P,Q,R,S,T,U,V,W,X,Y,Z;

• алфавіт десяткових арабських цифр:

0, 1, 2, 3, 4, 5, 6, 7, 8, 9 тощо.

Існують набори знаків, у яких немає загальновживаного порядку знаків. Це, наприклад:

• набір знаків клавіатури комп'ютера;

• набір знаків Морзе;

• міжнародний штриховий код тощо.

Особливе значення мають набори, які складаються лише з двох знаків. Такі набори називають двійковими наборами знаків. Наприклад:

• пара цифр {0; 1};

• пара слів {так; ні};

• пара знаків {+;-};

• пара знаків {.;-} (крапка; тире) тощо.

Слід розрізняти власне знак і його значення. Знак разом з його значенням називають символом. Часто той самий знак має різне значення. Так, знак «крап­ка» використовується й наприкінці речення, й для відокремлення в числі цілої частини від дробової.

З технічних міркувань послідовність знаків, з допомогою якої подають по­відомлення, часто розбивають на деякі підпослідовності, які називають слова­ми. При цьому кожне слово також можна розуміти як знак. Отже, набір утворе­них знаків буде ширший, ніж вхідний набір знаків. Слова над двійковим набо­ром знаків називають двійковими словами. Якщо всі слова мають однакову дов­жину, кажуть про n-розрядні двійкові знаки, чи n-розрядні двійкові коди.

Кодом називається правило, яке описує відображення одного набору знаків іншим. Так само називається й образ при такому відображенні. Якщо кожен образ є окремим знаком, то відображення називають шифруванням, а образи - шифрами. Якщо відображення взаємно однозначне, то обернене відображення називають декодуванням, або дешифруванням. Існують різноманітні коди, які використовуються в теорії інформації, теорії і практиці зв'язку: код Морзе, код Грея, код Бодо тощо.

Кількісні закономірності, пов'язані з передаванням, обробкою, отриманням і зберіганням інформації вивчає теорія інформації. Одним із завдань теорії інформації є визначення найекономічніших методів кодування, які надають змогу передавати певну інформацію, використовуючи мінімальну кількість знаків.

У теорії інформації існує поняття кількості інформації, яку містить деяке повідомлення. За одиницю інформації прийнято максимальну інформацію, що може вміщувати повідомлення з допомогою одного двійкового знаку. Така оди­ниця інформації називається біт (від англ. binary digit- «двійковий знак»). Один двійковий розряд, який є одиницею вимірювання довжини двійкового коду, та­кож називають бітом. Таким чином, біт - двійковий інформаційний елемент, здатний набувати значення «1» або «0».





Поделиться с друзьями:


Дата добавления: 2014-12-25; Просмотров: 706; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.011 сек.