Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Вопрос 43. WWW создана в 1989 г. В Европейской лаборатории физики элементарных частиц (CERN) Женева, Швейцария




Вопрос 42

WWW создана в 1989 г. В Европейской лаборатории физики элементарных частиц (CERN) Женева, Швейцария. Ее автор Tim Berners-Lee (из Оксфордского университета) создал информационную систему для упрощения сотрудничества ученых и обмена документами.

WWW использует технологию гипертекста для объединения во взаимосвязанную систему большого количества документов, между которыми можно перемещаться в произвольном порядке для поиска нужной информации. Документы хранятся на WWW_серверах. Для просмотра документов и перемещения между ними используется клиентская программа - броузер (browser).

Изначально броузер был только текстовый (Lynx) и поддерживал любые типы мониторов и мог работать на любых компьютерах. В 1993 г. Mark Andreessen (студент Университета штата Иллинойс, подрабатывавший в Национальном центре суперкомпьютерных технологий - NCSA) создал первый графический броузер - NCSA Mosaic, который был способен отображать на экране одновременно текст и графику. Кроме графики броузер отличался интуитивно понятным интерфейсом - гипертекстовый переход осуществлялся по щелчку мыши.

Появление службы WWW и графического броузера сделало Internet интересным и доступным для миллионов людей, далеких от науки. Internet стали использовать для развлечений, что способствовало инвестициям и дальнейшему развитию Internet_технологий.

Основу службы WWW составляет технология гипертекста. В обычной бумажной книге реализован линейный подход к публикации: страницы идут одна за другой, оглавление позволяет ориентироваться в структуре книги.

Документы в WWW представляют собой простые текстовые файлы, содержащие помимо собственно текста специальные метки, которые описывают вид и структуру документа. Метки должны соответствовать языку гипертекстовой разметки HTML (HyperText Markup Language). Такие документы называются HTML_документами.

Браузер, получив текстовый файл с HTML_документом, начинает интерпретировать его, представляя информацию в своем окне в соответствии с обнаруженными метками. Метки позволяют выделять в тексте заголовки разного уровня, организовывать списки, таблицы и, главное, создавать ссылки на другие документы.

Поисковые cистемы обычно состоят из трех компонент:

  • агент (паук или кроулер), который перемещается по Сети и собирает информацию;
  • база данных, которая содержит всю информацию, собираемую пауками;
  • поисковый механизм, который люди используют как интерфейс для взаимодействия с базой данных.
  • Агенты - самые "интеллектуальные" из поисковых средств. Они могут делать больше, чем просто искать: они могут выполнять даже транзакции от Вашего имени. Уже сейчас они могут искать cайты специфической тематики и возвращать списки cайтов, отсортированных по их посещаемости. Агенты могут обрабатывать содержание документов, находить и индексировать другие виды ресурсов, не только страницы. Они могут также быть запрограммированы для извлечения информации из уже существующих баз данных. Независимо от информации, которую агенты индексируют, они передают ее обратно базе данных поискового механизма.
  • Общий поиск информации в Сети осуществляют программы, известные как пауки. Пауки сообщают о содержании найденного документа, индексируют его и извлекают итоговую информацию. Также они просматривают заголовки, некоторые ссылки и посылают проиндексированную информацию базе данных поискового механизма.
  • Кроулеры просматривают заголовки и возращают только первую ссылку.
  • Роботы могут быть запрограммированы так, чтобы переходить по различным cсылкам различной глубины вложенности, выполнять индексацию и даже проверять ссылки в документе. Из-за их природы они могут застревать в циклах, поэтому, проходя по ссылкам, им нужны значительные ресурсы Сети. Однако, имеются методы, предназначенные для того, чтобы запретить роботам поиск по сайтам, владельцы которых не желают, чтобы они были проиндексированы.



Поделиться с друзьями:


Дата добавления: 2015-04-24; Просмотров: 463; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.011 сек.