Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Начало 70-х – начало 80-х гг. 20 века




Второй этап в истории развития компьютерных информационных технологий и, соответственно, исследований в сфере компьютерной безопасности можно очертить рамками начала 1970-х – начала 1980-х гг. 20-го века.

В начале 70-х годов появились первые мини- и микро-ЭВМ, доступные и потребные не только крупным, но и средним предприятиям и организациям. Соответственно внедрение вычислительной техники в информационное обеспечение и технологические процессы различных предприятий и организаций существенно расшилось и стало приобретать массовый характер.

Логическим продолжением этих процессов, базирующихся на миниатюризации электронной элементной базы, с одной стороны, а, с другой, ― на стремлении предприятий и организаций, их работников к «персонализации» своих «отношений» со средствами вычислительной техники, явилось создание в 1975г. в США первого т.н. «персонального компьютера»[1]. В 1976г. компания «Apple» разработала и выпустила «в свет» свой первый персональный компьютер. Чрезвычайно важно отметить, что программное обеспечение «эппловского» компьютера включало т.н. «табличный процессор» (программное средство для работы с табличными данными, включая разнообразные вычислительные функции финансового и экономического характера). Поэтому своих потребителей «эппловский» компьютер нашел не только в среде профессиональных программистов, ученых и инженеров, для которых «под рукой» был необходим не обязательно «мощный» персональный электронный вычислитель, но и в среде многочисленных работников финансово-экономической сферы теперь уже не только крупных, средних, но и мелких предприятий. В результате еще бóльшие массивы самой разнообразной информации, включая «конфиденциальные» данные, стали переводиться в электронную компьютерную форму.

Кульминацией этого массового и грандиозного по масштабам инновационного процесса стала разработка в 1981г. компанией IBM своего персонального компьютера (IBM PC). Помимо табличного редактора его программное обеспечение включало и простейший текстовый редактор. При помощи текстового редактора стало возможным готовить на ПЭВМ несложные служебные документы, используемые в документообороте предприятий и организаций. Появилась «продвинутая» альтернатива пишущей машинки, которую в США, начиная с 1902г., многие десятилетия подряд выпускала та же компания IBM. Соответственно, круг потребителей такого рода инструментария (персональных компьютеров) стал поистине всеобъемлющим, что, в свою очередь, еще более интенсифицировало перевод процессов обработки и хранения разнообразной информации в компьютерную форму.

Параллельно «компьютерной персонализации» в этот период продолжались не менее значимые процессы в сфере создания СУБД для «больших» ЭВМ. Именно в этот период был развернут ряд исследовательских проектов (проект «System R» фирмы IBM по созданию СУБД DB2, 1975–1979гг.; проект разработки СУБД «Ingres» университета Беркли, 1975–1980гг.), результатом которых стало появление на рынке новых программных средств обработки данных ― реляционных СУБД. Начался массовый процесс создания предприятиями и организациями автоматизированных компьютерных систем в различных сферах деятельности (в управленческой, технологической и т.д.). В результате организационно-управленческая и организационно-технологическая сфера крупных и средних предприятий, организаций стала стремительно «компьютеризироваться».

Важно также отметить еще одно направление развития информационных технологий этого периода. К концу семидесятых годов проект «ARPANET» из военно-исследовательского перешел в фазу создания международной компьютерной сети передачи данных, которая связала электронными компьютерными коммуникациями правительственные структуры, крупные исследовательские государственные и частные центры, университеты США, Канады и стран западной Европы. К началу 1980-х гг. стал возникать прообраз глобальной информационной инфраструктуры «общегражданского» назначения.

Таким образом, основные события и инновации в сфере компьютерных информационных технологий в период начала 70-х – начала 80‑х гг. 20‑го века явились мощным потребным аспектом разработки и создания механизмов защиты компьютерной информации, исследований в различных направлениях компьютерной безопасности.

Начало этого (второго) периода характеризуется интенсивными теоретическими исследованиями в сфере моделей безопасности компьютерных систем. В это время были опубликованы результаты по таким формальным моделям безопасности, как «система с полным перекрытием [угроз]» (Хоффман и др., 1970–1974гг.), «пятимерное пространство безопасности» (Хартсон, 1975г.), дискреционная модель «распространения прав доступа» (модель Харрисона, Руззо, Ульмана ― т.н. модель HRU, 1975г.), теоретико-графовая модель «TAKE-GRANT» (Джонс, Липтон, Шнайдер, 1976г.).

Для понимания логики исследований в сфере формальных моделей безопасности того периода важно отметить следующее. Результаты исследований по двум последним моделям безопасности (модели HRU и TAKE-GRANT), которые были созданы для исследования процессов передачи прав доступа в рамках дискреционной политики безопасности[2], привели к обескураживающим результатам ― при отсутствии ограничений по передаче прав доступа на какие-либо объекты от владельцев этих объектов другим пользователям нет теоретических гарантий невозможности ознакомления какого-либо субъекта-пользователя с определенным (конфиденциальным) объектом, т.е. по сути, нет гарантий безопасности. Введение же ограничений, при которых такие гарантии могут быть обоснованы, приводит к существенной потере функциональности компьютерных систем.

Данные результаты в середине 70-х годов привели к некоему «теоретическому кризису» в области формальных моделей безопасности и тем самым стимулировали поиски новых методов и принципов организации доступа к [информационным] объектам в компьютерных системах.

В 1973–1975гг. сотрудники MITRE Corporation Дж.Белл и Л.ЛаПадула (J.E.Bell и L.J.LaPadula)разработали альтернативную дискреционному подходу т.н. «мандатную» модель безопасности компьютерных систем. Как и многое другое в технологиях защиты компьютерной информации, основы и принципы данной модели были «подсмотрены» во внекомпьютерной сфере ― в сфере работы с «бумажными» секретными документами. Белл и ЛаПадула в рамках своей модели, которую впоследствии стали называть по их именам (модель Белла-ЛаПадулы), на основе теоретико-множественной формализации методологии и правил доступа к секретным документам сотрудников военных и других «закрытых» организаций математически доказали безопасность функционирования компьютерной системы, воспроизводящей эти правила. Было строго доказано, что с т.зр. утечки секретных данных от доверенного пользователя (или из секретного файла) к недоверенномму пользователю (в несекретный файл), компьютерная система, удовлетворяющая условиям модели Белла-ЛаПадулы, функционирует безопасно[3].

Модель Белла-ЛаПадулы сыграла (и во многом играет до сих пор) огромную методологическую роль в теории компьютерной безопасности. С одной стороны, была продемонстрирована возможность создания компьютерных систем, в которых безопасность математически доказана, а, с другой, ― возможность воспроизведения в архитектуре компьютерных систем и в алгоритмах доступа к компьютерным данным тех правил, которые установлены нормативными регламентациями в «бумажной» сфере.

Как это часто бывает в отношении неких новаторских фундаментальных результатов, модель Белла-ЛаПадулы на протяжении второй половины 70-х, первой половины 80-х годов подверглась тщательному и всестороннему анализу (или как говорят в компьютерной сфере ― атакам). Одним из исследователей, который внес наиболее существенный вклад в развитие модели Белла-ЛаПадулы, был Дж. МакЛин (J. McLean). Его работы снизили некоторую «схоластичность» модели Белла-ЛаПадулы, приблизив ее к различным аспектам практической реализации в компьютерных системах.

Другим заметным результатом в разработке новых подходов и формальных моделей в конце второго периода развития компьютерных IT‑технологий стала «автоматная модель» Гогена и Мессигера (J.Goguen, J.Messeguer, 1982г., ― GM-модель). Она сыграла важную методологическую роль в поисках теоретических подходов к перекрытию т.н. «скрытых» каналов утечки информации[4], о существовании которых в рамках исследований дискреционных и мандатных моделей было много обсуждений во второй половине 70‑х годов. Кроме того, GM-модель предоставила разработчикам защищенных КС методологию разработки интерфейса с пользователем в контексте безопасности компьютерной информации.

Исследования в области компьютерной безопасности в этот период проводились и крупными «гражданскими» организациями из IT-сферы. В конце 70-х годов та же корпорация IBM провела исследовательский проект по тематике организации коллективного доступа пользователей к сложноорганизованным данным в компьютерных системах. Одним из результатов этого исследовательского проекта стало появление «ролевого» подхода к организации доступа. В развитие идей ролевого доступа и других теоретико-прикладных результатов, накопленных к концу этого периода, появилась т.н. MMS-модель (модель системы военных сообщений ― security models for military message system), опубликованная в 1984г. К.Лендвером, К.Гайтмейером и Дж.МакЛином (C.E.Lendwehr, C.L.Heitmeyer, J.McLean), в которой были объединены элементы дискреционного, мандатного и ролевого доступа.

Другое направление исследований и разработок в сфере компьютерной безопасности в 70-х годах 20-века связано с криптографическими механизмами обеспечения конфиденциальности и целостности компьютерных данных. Их инициализирующей основой, как уже отмечалось, являлись потребности в защите передаваемых данных по «гражданским» информационно-телекоммуникационным сетям, процессы создания которых активно развивались в то время.

В 1973г. национальным бюро стандартов США был объявлен конкурс на разработку алгоритма шифрования данных, который мог бы быть эффективно реализован в текущих и перспективных параметрах электронной элементной базы, применяемой в компьютерных системах и сетях передачи данных. Алгоритм Lucifer, представленный IBM, основанный на более раннем алгоритме Хорста Фейстеля, был признан победителем. Агентство национальной безопасности (АНБ) США «помогло усовершенствовать» алгоритм и в 1977г. он был утвержден правительством США как официальный стандарт алгоритма симметричного шифрования данных под наименованием DES (Data Encryption Standard).

Трудно переоценить значение опубликования алгоритма DES для развития современной криптографии. По сути это был первый в истории случай следования т.н. принципу Керкхофа[5], в результате которого в сферу анализа стойкости и создания новых криптоалгоритмов было вовлечено большое количество «гражданских» математиков всего мира.

Однако применение в компьютерных сетях таких «быстрых» и надежных (по тем временам) алгоритмов шифрования данных, как DES, натолкнулось на неразрешимую проблему. Абонентами сетей является большое количество пользователей, разделенных территориально. Для реализации в таких сетях симметричных[6] криптоалгоритмов шифрования данных необходимо для каждой пары абонентов разделить (доставить обоим абонентам) свой секретный ключ шифрования/расшифрования[7].

Способ разрешения этой теоретико-прикладной проблемы предложили в 1975г. американские математики У.Диффи и М.Хелманн на основе выдвинутого ими предположения (и не доказанного строго до сих пор) о существовании т.н. «односторонних функций»[8]. Несмотря на отсутствие строгого доказательства «односторонности» каких-либо конкретных функций, рассматривались различные виды функций, «претендующих» на такую «односторонность», например, функции модульного экспоненцирования[9] (y =e x mod p). В 1976г. У.Диффи и М.Хелманн с учетом работ Р.Меркля (Ralph Merkle) на основе принципа «односторонности» предложили алгоритм для получения двумя абонентами общего секретного ключа через незащищенный канал связи[10].

Так было положено начало новой т.н. «асимметричной» криптографии.

Однако при всех своих новаторских достоинствах алгоритм Диффи-Хелманна-Меркля обладал весьма существенным для практического использования недостатком ― он был незащищен от злоумышленника, способного в канале связи перехватывать и подменять обмен сообщениями.

После внимательного изучения данного алгоритма Р.Райвест (Ronald Linn Rivest), А.Шамир (Adi Shamir) и Л.Адлеман (Leonard Adleman) из Массачусетского Технологического Института в 1977г. предложили алгоритм шифрования данных, который был предназначен для организации безопасной передачи по незащищенным каналам связи секретных сообщений, в первую очередь, секретных ключей к системам симметричного шифрования. Алгоритм, получивший по первым буквам фамилий его разработчиков название RSA, основывался также на использовании «односторонности» функции модульного экспоненцирования, и, кроме того, на «односторонности» функции произведения двух больших простых целых чисел[11].

Создание и публикация алгоритма RSA[12] сыграли без преувеличения революционную роль в развитии современной криптографии (не зря АНБ США много лет пыталось воспрепятствовать использованию алгоритма RSA неправительственными организациями). Однако значение изобретения и публикации алгоритма RSA заключалось не только в возможности создания компьютерных сетей с большим количеством пользователей, которые могут обмениваться шифрованными сообщениями. Идеи криптографии с открытым ключом были положены в основу создания технологий электронной цифровой подписи (ЭЦП), которые обеспечивают целостность передаваемых по сетям компьютерных данных и подлинность авторства передаваемых сообщений.

Возможность создания алгоритма цифровой подписи была высказана в 1975–1976г. теми же У.Диффи и М.Хелманном. Р.Райвест, А.Шамир и Л.Адлеман предложили для получения простых ЭЦП передаваемых по сетям сообщений использовать их алгоритм RSA, только, если так можно выразиться, «наоборот»[13].

Таким образом, к концу 70-х – началу 80-х гг. были разработаны доступные в «гражданской» сфере эффективные криптографические механизмы защиты информации, на основе которых стало возможным создавать защищенные компьютерные сети передачи данных.

Кроме бурных событий в сфере криптографических технологий в определенном смысле символичным завершением второго периода развития IT-технологий и компьютерной безопасности стало опубликование в 1983г. разработанного Национальным центром компьютерной безопасности Министерства обороны США (DoD Computer Security Center) совместно с Национальным бюро стандартов США (NBS) первого стандарта в сфере требований к защищенным компьютерным системам.

Документ, названный «Критериями оценки безопасности (надежности) компьютерных систем» (Trusted Computer System Evaluation Criteria, TCSEC), впервые нормативно-методически закрепил используемую в теоретических исследованиях и практических разработках еще с начала 70‑х гг. парадигму понятия безопасности компьютерной информации как триады «конфиденциальность-целостность-доступность», с перечислением соответствующих требований к организации доступа к компьютерным данным, к архитектуре и механизмам функционирования компьютерных систем. Но м.б. еще большее теоретическое и методологическое значение этого документа заключается в том, что впервые была введена порядковая шкала оценивания безопасности компьютерных систем (1-й, 2-й, 3-й и т.д. класс/уровень безопасности), используемая в оценочных стандартах безопасности и поныне.

Таким образом к завершению второго периода истории исследований в сфере компьютерной безопасности (начало 70-х гг. – начало 80-х гг. 20 века) был сформирован теоретический, методический и технико-технологический фундамент создания и функционирования защищённых компьютерных систем и сетей передачи данных.

 




Поделиться с друзьями:


Дата добавления: 2015-05-10; Просмотров: 1093; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.021 сек.