КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Особенности поиска информации в Интернет
Интернет как глобальное средство обмена информацией нередко используется для поиска необходимых данных. Способов поиска информации множество (в скобках указаны случаи, когда такой способ поиска наиболее применим): Поиск с помощью поисковых машин (конкретные вещи) Каталоги и коллекции ссылок (более общие понятия) Рейтинги (самые популярные ресурсы) Конференции, чаты и страницы ссылок на тематических сайтах (редкие, специализированные вещи). Ограниченные временные, физические и финансовые возможности людей вынуждают чаще всего применять для этого специальные каталоги и поисковые машины (поисковики) - своего рода библиотекари, индексирующие доступный им массив информации в Интернет. В данном разделе выделены особенности и рассмотрены общие правила работы наиболее известных каталогов и поисковых систем. Каталоги представляют собой систематизированные группы адресов, объединенные, как правило, по тематике. К удобству их применения можно отнести то, что, если пользователю известна тема искомого документа, он будет исследовать соответствующую ветвь каталога, не отвлекаясь на посторонние, не относящиеся к делу документы. Однако, объем каталога ограничен физическими возможностями редакторской группы и ее субъективностью в выборе материала. В них отсутствует информация на узкие, специальные темы, да и саму тематику искомого документа не всегда можно сформулировать в пределах классификации каталога. Ниже приведены возможности зарубежных и российских каталогов. Yahoo! - Самый популярный каталог, содержащий обширную информацию о десятках тысяч Web-узлов. Первый уровень иерархии содержит 14 тематических категорий, которые разветвляются еще на 4 - 5 подуровней. Имеет собственную машину поиска, позволяющую: 1) искать по базе Yahoo!, по Usenet или по адресам электронной почты; 2) ограничить поиск материалами, размещенными за последний день, неделю, месяц, год или 3 года; 3) выдать статьи, содержащие хотя бы одно ключевое слово или все ключевые слова; 4) искать по однокоренным словам или только по указанным ключевым; 5) выдать результаты по 10, 25, 50 или 100 на одной странице (подробнее ниже). Excite Reviews - Содержит обзоры 60 тыс. узлов Интернет (иерархический каталог) City.Net - сведения о странах и городах. Galaxy - Иерархический каталог с подробным описанием тематических категорий на первой странице. Осуществляет поиск по категории поиска, по одному или нескольким ключевым словам, краткий и подробный вывод результатов поиска, переход на страницы Gopher и Telnet. Yellow Pages - Поиск информации о 16 млн. американских компаниях в различных областях деятельности, а также персональные данные и электронные адреса частных лиц. Russia on the Net - Первый каталог русских ресурсов. Созвездие Интернет - Охватывает около 400 серверов. Возможность усечения терминов. Содержит названия и краткие характеристики серверов. Привлекательная графика. Небольшая зона поиска, слабая иерархия. Желтые страницы Интернет - Около 1200 Web-серверов. Большой объем информации, хорошо продуманная структура. Сокровища Интернет - Каталог Web-ресурсов на сервере Relcom. АУ! - Молодой, быстроразвивающийся каталог.
Таблица 10.2. Сводная таблица некоторых предметных каталогов
Поисковых серверов всего известно более 150, различающихся по регионам охвата, принципам проведения поиска, объему индексной базы, скорости обновления информации, способности искать "нестандартную" информацию и тому подобное. Основными критериями выбора поисковых серверов являются объем индексной базы сервера и степень развитости самой поисковой машины. Традиционно поисковые системы имеют три элемента: 1. Робот (кроулер, паук, агент), который перемещается по Сети и собирает информацию; Кроулеры просматривают заголовки и возвращают только первую ссылку. Пауки - программы, осуществляющие общий поиск информации в Сети и сообщающие о содержании найденного документа, индексируя его и извлекая итоговую информацию. Агенты - самые "интеллектуальные" из поисковых средств. Они могут делать больше, чем просто искать: они могут выполнять даже транзакции от Вашего имени. Уже сейчас они могут искать cайты специфической тематики и возвращать списки cайтов, отсортированных по их посещаемости. Администраторы поисковых систем могут определить, какие сайты или типы сайтов агенты должны посетить и проиндексировать. Агенты могут обрабатывать содержание документов, находить и индексировать другие виды ресурсов, не только страницы. Некоторые, например, индексируют каждое отдельное слово во встречающемся документе, в то время как другие индексируют только наиболее важных 100 слов в каждом, индексируют размер документа и число слов в нем, название, заголовки и подзаголовки и так далее. Они могут также быть запрограммированы для извлечения информации из уже существующих баз данных. Роботы реализованы как программная система, которая запрашивает информацию из удаленных участков Интернет, используя стандартные сетевые протоколы. Первый робот был создан для того, чтобы обнаружить и посчитать количество веб-серверов в Сети. Все роботы могут быть запрограммированы так, чтобы переходить по различным ссылкам различной глубины вложенности, выполнять индексацию и даже проверять ссылки в документе. Из-за их природы они могут застревать в циклах (черных дырах). На практике роботы сохраняют почти всю информацию о том, где они побывали. Даже если робот смог определить, должна ли указанная страница быть исключена из его базы данных, он уже понес накладные расходы на запрос самого файла, а робот, который решает игнорировать большой процент документов, очень расточителен. Пытаясь исправить эту ситуацию, Интернет-сообщество приняло "Стандарт исключений для роботов". Этот стандарт описывает использование простого структурированного текстового файла, доступного в известном месте на сервере (" /robots.txt ") и используемого для того, чтобы определить, какая из частей ссылок сервера должна игнорироваться роботами. Все "умные" поисковые машины сначала обращаются к этому файлу, который должен присутствовать на каждом сервере. На сегодняшний день этот файл обязательно запрашивается поисковыми роботами только таких систем как Altavista, Excite, Infoseek, Lycos, OpenText и WebCrawler. Это средство может быть также использовано для того, чтобы предупредить роботов о черных дырах. Каждому типу роботов можно передавать определенные команды, если известно, что данный робот специализируется в конкретной области. Этот стандарт является свободным, но его очень просто осуществить и в нем имеется значительное давление на роботов с попыткой их подчинения. 2. База данных, которая содержит всю информацию, собираемую роботами. Проиндексировать произвольный документ, находящийся в Сети, очень сложно. Первые роботы просто сохраняли название документа и якори (anchor) в самом тексте, но новейшие роботы уже используют более продвинутые механизмы и вообще рассматривают полное содержание документа. Проиндексированная информация отсылается базе данных (БД) поискового механизма. Вид построенного индекса определяет, какой поиск может быть сделан пользователем поискового механизма и как полученная информация будет интерпретирована. Люди могут помещать информацию прямо в индекс, заполняя особую форму для того раздела, в который они хотели бы поместить свою информацию. БД автоматически обновляются за определенный период времени с тем, чтобы мертвые ссылки были обнаружены и удалены. 3. Пользовательский интерфейс для взаимодействия с БД поисковика. Когда пользователь ищет информацию в Интернет, он заполняет поисковую форму на странице поисковика. Здесь могут использоваться ключевые слова, даты и другие критерии. Критерии в поисковой форме должны соответствовать критериям, используемым агентами при индексации ресурсов Сети. Как формат, так и семантика запросов варьируются в зависимости от применяемой поисковой машины и конкретной предметной области. Запросы составляются так, чтобы область поиска была максимально конкретизирована и сужена. Предпочтение отдается использованию нескольких узких запросов по сравнению с одним расширенным. Языки запроса различных машин поиска в основном являются сочетанием следующих функций (табл..10.3.):
Таблица 10.3. Языки запроса различных машин поиска На основе введенной пользователем поисковой строки в БД отыскивается предмет запроса и выводится список соответствующих ссылок. Число документов, полученных в результате поиска по запросу, может быть огромно. Однако, благодаря ранжированию документов, применяемому в большинстве поисковых машин, на первых страницах списка практически все документы окажутся релевантными (в идеале). Основные принципы определения релевантности следующие: 1. Количество слов запроса в текстовом содержимом документа (в html-коде). 2. Тэги, в которых эти слова располагаются. 3. Местоположение искомых слов в документе. 4. Удельный вес слов (густота), относительно которых определяется релевантность, в общем количестве слов документа. Эти принципы применяются всеми поисковыми системами. А представленные ниже используются некоторыми, но достаточно известными (вроде AltaVista, HotBot). 5. Время - как долго страница находится в базе поискового сервера. Множество сайтов живут максимум месяц. Если же сайт существует довольно долго, это означает, что владелец весьма опытен в данной теме. 6. Индекс цитируемости - число ссылок на данную страницу с других страниц, зарегистрированных в БД.
Существуют особенности показа полученного списка - некоторые поисковики показывают только ссылки; другие выводят ссылки c первыми несколькими предложениями, содержащимися в документе или заголовок документа вместе с ссылкой. Результат запроса (список ссылок) обрабатывается в два этапа. На первом этапе (автоматическая обработка) производится отсечение очевидно нерелевантных источников, попавших в выборку в силу несовершенства поисковой машины или недостаточной "интеллектуальности" запроса. Дальнейшая (ручная) обработка производится пользователем путем последовательного обращения на каждый из найденных ресурсов и анализа находящейся там информации. Когда пользователь щелкает на ссылку из списка, то перед запросом соответствующего документа у того сервера, на котором он находится, поисковики заносят в свою БД отметку о пользовательском предпочтении. Собранная информация о поведении пользователей (формулировки запросов и выбранные из списка ресурсы) успешно используется в рекламных компаниях в Сети.
Таблица 10.4. Сравнительные характеристики ведущих поисковых машин российского Интернет
Дата добавления: 2014-01-07; Просмотров: 3970; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |