Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Машины поиска




Информационный поиск в среде Интернет

 

По-видимому, не будет большим преувеличением утверждение о том, что конец XX века - это время новых информационных технологий, «живущих» в глобальных и локальных сетях, наиболее яркими представителями, которых явля­ются Интернет и интранет. В настоящее время уже ни у кого нет сомнений в том, что Интернет является de facto всемирным хранилищем информации практи­чески по всем аспектам жизни человечества. Так же как и то, что эффективный доступ к этой информации в связи с экспоненциальным ростом объема Интер­нет-ресурсов становится все более сложным и трудоемким [Cowie et al., 1996]. И не столько с технической точки зрения, сколько с точки зрения поиска и ана­лиза информации.

С другой стороны, как уже отмечалось в предыдущем параграфе, важнейшими из областей практического использования агентных технологий являются сбор ин­формации, ее фильтрация и использование для принятия решений.

Учитывая вышесказанное, цель данного параграфа в обсуждении проблем пред­ставления и обработки информации в сети Интернет на основе использования парадигмы многоагентных систем, а также обзор уже существующих в этой обла­сти приложений.

Авторы отдают себе отчет, что при этом за рамками такого обсуждения остаются многие важные применения агентных технологий, но вынуждены ограничиться данной тематикой в силу ограничений на объем данного издания и время его под­готовки.

 

 

Пространство WWW уже сегодня содержит огромное количество HTML-доку­ментов, причем не только тексты, но и графику, видео, звук и т. д. Гипертексто­вые связи между Web-документами и/или их частями отражают отношения между отдельными информационными фрагментами, представленными в сети. Броузеры, поддерживающие HTML-стандарты, обеспечивают представление материалов пользователям и навигацию по ссылкам для доступа к документам, распределенным по сети. Однако поиск информации в настоящее время поддер­жан существенно слабее и в большинстве случаев базируется на использовании ключевых слов и ограниченного числа типов машин поиска.

Машины поиска, по-видимому, являются в Интернете самым распространенным и доступным ресурсом для извлечения информации. При этом, как правило, ис­пользуются два типа сетевых роботов: спайдеры (spiders) и индексы (indexes). Спайдеры, иногда называемые также ботами (bots, от робот-robots), перемеща­ются по Web от сайта к сайту. Некоторые из них перемещаются от сервера к сер­веру беспорядочно, другие используют приоритеты, такие, например, как посе­щаемость сайта. Оказавшись на сайте, спайдер посылает отчет поисковой машине и продолжает индексирование. Индексы используются для ускорения поиска и сбора информации. Некоторые поисковые механизмы индексируют со­держание страниц полностью, другие - только отдельные их части, такие, на­пример, как заголовки документов.

Основными характеристиками машин поиска являются язык запросов пользова­теля, представление исходных и выходных документов, время индексации и поиска, объем индекса. Существенной характеристикой машин поиска является также качество представления результатов. Наиболее популярные поисковые машины в настоящее время - AltaVista (http://www.altavista.com и/или http: //altavista.ru), Exite (http://www.excite.com), Infoseek (http://www.infoseek. com), Lycos (http://www.lycos.com), WebCrawler (http://www.webcrawler. com), Yahoo! (http://www.yahoo.com) и некоторые другие. Примером полно­текстовой системы поиска с учетом морфологии русского языка является систе­ма Яndex (http://www.yandex.ru). Сравнительный анализ достоинств и недо­статков машин поиска можно найти в работе [CompTek, 2000a], а русскоязычных машин поиска - в работе [CompTek, 2000b].

Как правило, поисковые машины обеспечивают интерфейс типа меню, с помо­щью которого пользователь может скомпоновать запрос на поиск информации, используя ключевые слова и/или фразы и логические связки И-ИЛИ-НЕ. Боль­шинство машин поиска находят огромное количество «релевантных» страниц по запросу пользователя. Каждый найденный документ обычно ранжируется по степени его корреляции с запросом. Релевантность каждого документа оценива­ется с помощью различных технологий, например учета частоты появления на странице искомых слов. Некоторые поисковые механизмы используют дополни­тельно другие факторы, такие как частота посещения страницы и/или близость расположения друг к другу искомых терминов.

Типичную организацию машин поиска можно рассмотреть на примере системы WebCrawler (рис. 9.6), разработанной в университете Вашингтон (Сиэтл, США).

 

 

 

Рис. 9.6. Общая архитектура системы WebCrawler

 

WebCrawler начинает процесс поиска новых сайтов с известных ему документов и переходит по ссылкам на другие страницы. Он рассматривает сетевое простран­ство как ориентированный граф и использует алгоритм обхода графа, работая в следующем цикле [Cheong, 1996]:

 

• найти новый документ;

• отметить документ как извлеченный;

♦ расшифровать ссылки с этого документа;

♦ проиндексировать содержание документа.

 

Поисковый механизм работает в двух режимах: поиск документов в реальном времени и индексирование документов.

Этим сервисом определяется, какие документы и какие типы документов нужно найти и извлечь из сети. Звуковые файлы, картинки, двоичные файлы и т. п. - не извлекаются. Ошибочно извлеченные файлы будут проигнорированы на ста­дии индексирования. В режиме индексирования система строит индекс инфор­мации из найденных документов, в режиме поиска - находит документы, мак­симально соответствующие запросу пользователя.

Агенты в системе WebCrawler отвечают за извлечение документов из сети. Для выполнения этой работы поисковый механизм находит свободного агента и пере­дает ему задание на поиск. Агент приступает к работе и возвращает либо содержа­ние документа, либо объяснение, почему данный документ нельзя доставить. Агенты запускаются как отдельные процессы, что позволяет изолировать основ­ной процесс работы системы от ошибок и проблем с памятью. Одновременно ис­пользуется до 15 агентов.

В базе данных хранятся метаданные документов, связи между документами, пол­нотекстовый индекс, другая служебная информация. База обновляется каждый раз, когда поступает новый документ. Для отсечения семантически незначимых слов используется стоп-словарь, словам из документа приписывается вес, рав­ный частоте их появления в данном тексте, деленной на частоту появления слова в ссылках на другие документы. Такой индекс позволяет быстро находить по за­данному слову ссылки на документы его содержащие. Целиком URL (ссылки на документы в сети) не запоминаются. Вместо этого вся нужная информация по­мещается в специальные объекты. Каждый объект запоминается в отдельном В-дереве: документы - в одном, серверы - в другом, а ссылки - в третьем. Такое разделение данных позволяет быстро определить неиспользуемые или часто ис­пользуемые серверы.

Аналогичным образом устроены и другие машины поиска. Характеризуя их в це­лом, можно отметить, что это глобальные поисковые механизмы, охватывающие до 90 % ресурсов Интернета. Они не могут настраиваться на предпочтения пользо­вателя и не имеют средств анализа информации, а их сетевым роботам становится все труднее справляться с постоянным ростом ресурсов Интернета. Главной зада­чей машин поиска, по сути, является индексация ресурсов глобальной сети, а так­же поддержка и расширение соответствующих баз данных. Фактически в базах данных машин поиска хранится информация о том, где и что лежит в сети. Поэто­му можно считать, что существующие машины поиска обеспечивают низкоуров­невый сервис для клиентских поисковых программ более высокого уровня.




Поделиться с друзьями:


Дата добавления: 2015-07-02; Просмотров: 407; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.007 сек.