Из каких частей состоит поисковая система – Принцип работы поисковых систем: раскладываем все по полочкам

Содержание

Поисковые системы 2013

Поисковые системы.

Представьте ответы на вопросы в виде электронного отчета, созданного в программе Word. При использовании материалов из сети Интернет ссылка на источники обязательна!!!

ФИО автора

Иванов Владимир Алексеевич

№ группы

441

Дата:

12.12.2013

  1. Дайте определение Поисковой системе. Что это такое? Из каких частей она состоит? Опишите, какие функции выполняет каждая часть поисковой системы?

Поиско́вая систе́ма — программно-аппаратный комплекс с веб-интерфейсом,

предоставляющий возможность поиска информации в интернете

Поисковая система состоит из следующих основных компонентов:

Spider (паук) - браузероподобная программа, которая скачивает веб-страницы.

Crawler (краулер, «путешествующий» паук) - программа, которая автоматически проходит

по всем ссылкам, найденным на странице.

Indexer (индексатор) - программа, которая анализирует веб-страницы, скаченные пауками.

Database (база данных) - хранилище скачанных и обработанных страниц.

Search engine results engine (система выдачи результатов) - извлекает результаты поиска из

базы данных.

Web server (веб-сервер) - веб-сервер, который осуществляет взаимодействие между

пользователем и остальными компонентами поисковой системы.

http://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B8%D1%81%D0%BA%D0%BE%D0%B2%D0%B0%D1%8F_%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%B0

http://www.seo1st.ru/-qq-/1551-2012-05-22-17-45-33.html

  1. Объясните, как происходит поиск информации в поисковой системе?

Для поиска информации в обычно используются три способа 

Первый из них - поиск по адресу. Он применяется, когда пользователю известен адрес информационного ресурса, содержащего необходимую ему информацию. При организации поиска информации по адресу (форма адреса - IP, доменный или URL - в этом случае значения не имеет) пользователю достаточно просто ввести адрес ресурса в соответствующее поле браузера – программы, предназначенной для обеспечения доступа к сетевым ресурсам.

Второй – поиск с помощью навигации по гиперсвязям. При использовании этого вида поиска случае пользователь сначала должен получить доступ к серверу, связанному с соответствующей БД. После этого можно найти документ, используя гиперссылки. Очевидно, что этот способ удобен, когда адрес ресурса неизвестен пользователю. Для использования в качестве исходной точки для поиска при реализации этого способа предназначены Web-порталы - серверы, предоставляющие прямой доступ к некоторому множеству серверов, включая установленные на них информационные ресурсы, а также Web-приложения, которые реализуют Web-сервисы, соответствующие назначению портала. Доступные через портал серверы могут относиться к определенной системе (например - корпоративной) или различным системам и быть специально подобраны по видовому, тематическому или другим признакам документов и данных, содержащихся на их сайтах. Обычно порталы совмещают в себе разнообразные функции с целью удержать клиента как можно дольше. Доминирующим сервисом портала является сервис справочной службы: поиск, рубрикаторы, финансовые индексы, информация о погоде и т.д. Если Web-сайты в большинстве случаев представляют собой наборы статических Web-страниц, то порталы являются совокупностями программных средств и заранее неструктурированной информации, которую эти средства превращают в структурированные данные по запросу конкретных пользователей.

Третий способ поиска предполагает использование поисковых серверов Интернета. Поисковыми серверами называют выделенные хост - компьютеры, в которых размещаются базы данных ресурсов Интернета. Пользовательский интерфейс такого сервера имеет поле для ввода ключевых слов, описывающих тему, интересующую пользователя 

Эти слова сервер воспринимает как информационный запрос, в соответствии с которым он осуществляет поиск ресурсов и представляет список найденных документов пользователю. Очевидно, что при реализации этого способа возможны ошибки как 1-го (пропуск цели), так и 2-го рода (информационный шум). Следует упомянуть, что различаются две группы поисковых серверов: поисковые машины и предметные каталоги. Их отличие обусловлено способом создания и последующего пополнения базы данных ресурсов Интернета, которой данный сервер осуществляет информационный поиск. Так, поисковые машины имеют в своем составе специальную программу - поисковый робот. Она осуществляет постоянный мониторинг сети, собирает информацию с Web- страниц, индексирует их и фиксирует их поисковый образ в своей базе данных. В предметных каталогах база данных о документах Интернета формируется «вручную» специалистами-редакторами. Поскольку в Интернете отсутствует единое администрирование, постольку его информационные ресурсы постоянно меняются. В нём могут появляться новые и исчезать существующие документы. Частота обновления информации в документах для разных сайтов различна: для некоторых — это несколько раз в час, для некоторых — раз в сутки, день, месяц и т.д. Поэтому очень важно понимать, что при использовании информационно-поисковых систем для нахождения информации в Интернете, поиск осуществляется не на реальном пространстве документов Сети, а в некоторой модели, содержание которой может значительно отличаться от действительного содержания Интернет в момент проведения поиска. По степени охвата индексируемых ресурсов поисковые системы можно разделить на две группы: международные и русскоязычные. Первые индексируют все опубликованные в Интернете документы подряд. Вторые индексируют ресурсы, расположенные в доменных зонах с преобладанием русского языка. 

http://help.rgsu.net/uchebnik/searchinfo/

  1. Что такое язык запросов? Для чего он используется в поисковых системах?

Язык запросов— это искусственный язык, на котором делаются запросы к базам данных и другим информационным системам, особенно к информационно-поисковым системам.

Язык, на котором формулируются, запросы к поисковым системам называется языком поисковых запросов или информационно-поисковым языком.

В различных поисковых системах язык запросов может различаться, однако обычно он является некоторым подобием языка регулярных выражений с дополнениями, связанными со спецификой работы той или иной поисковой системы. Знание и правильное применение языка запросов конкретной поисковой машины улучшает и упрощает пользователю процесс поиска информации.

http://ru.wikipedia.org/wiki/Язык_запросов

  1. Перечислите типы поисковых систем?

Существуют два основных типа поисковых машин:

  1. индексные - Google, AltaVista, Rambler, HotBot, Яндекс и др.;

  2. классификационные (каталоговые) - Rambler, Yahoo! и др.

  1. Как отобрать нужную информацию среди большого количества найденных документов?

Существуют десятки крупных и тысячи малых и специализированных Web-узлов, предназначенных для поиска в Интернете. Средства поиска этой группы позволят пользователю по определенным правилам сформулировать требования к необходимой ему информации (с помощью языка запросов создать запрос). После этого машина поиска автоматически просматривает документы на контролируемых (индексируемых) ею сайтах и отбирает те из них, которые, «по мнению» поискового сервера, соответствуют сформулированным пользователем требованиям (релевантные запросу). В поисковых узлах используются собственные индексы Интернета, постоянно обновляемые особыми программами, называемыми пауками (spiders). Программа-паук обследует Web, проверяя каждую ссылку на данной странице, затем на страницах, адресуемых ссылками, и т. д., и сообщает своему владельцу сведения обо всех страницах для последующей индексации.

В результате поиска создается одна или несколько страниц, содержащих ссылки на релевантные запросу документы (Web-страницы). Для каждой ссылки обычно также указываются дата создания документа, его объем, степень соответствия релевантности запросу, фрагменты текста, характеризующие содержание документа. Щелчок мышью на такой ссылке позволяет загрузить заинтересовавшую страницу. В случае очень большого количества найденных документов можно уточнить запрос и в соответствии с ним повторить поиск, но только среди отобранных страниц (такой поиск в разных машинах называется по-разному, но обычно это – искать в найденном). В ряде машин поиска можно определенным способом поменять ссылку на страницу, содержание которой в наибольшей степени удовлетворяет вашим потребностям, и повторить поиск, потребовав искать похожие.

Достоинство автоматизированного поиска состоит в том, что он обеспечивает просмотр очень больших объемов информации, имеющейся в Интернет в данный момент. Однако сложность точного описания запроса, адекватно отражающего ваши информационные потребности, а также еще большая сложность задачи автоматического определения степени соответствия вашему запросу просматриваемых страниц, приводит к тому, что количество страниц, отобранных «с первого захода», как правило, или очень мало, или чрезмерно велико. В целом поиск с использованием поисковой машины представляет собой итерационный (многоходовой) процесс, в результате которого постепенно уточняется форма запроса.

http://www.webeffector.ru/wiki/%D0%9F%D0%BE%D0%B8%D1%81%D0%BA%D0%BE%D0%B2%D0%B0%D1%8F_%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%B0

3

Из чего состоит поисковая система

Поисковые системы
На первый взгляд поисковая система выглядит довольно просто, однако для того чтобы ее пользователь смог увидеть необходимые ему результаты по тому или иному запросу, в ее структуре задействуется работа сразу нескольких программных компонентов.

Итак, любой современный поисковой сервис состоит из таких программ, работающих автономно друг от друга, и выполняющих каждый свою функцию. Не все популярные поисковые системы похожи друг на друга, но и старые и новые поисковики имеют эти компоненты.

Crawler. Основной задачей этого программного элемента поисковой системы является «блуждание» по всемирной сети, благодаря которому он имеет возможность находить новые web-документы, при обнаружении которых он дает команду пауку скачать их на сервер поисковой системы.

Spider. Задачей этой программы является сачка на сервер поисковика все найденных Crawler web-документов. Устроен Spider точно так, как любой современный браузер, однако он не имеет визуальной оболочки и воспринимает страницы web-сайтов только в виде html кода.

Database. Это обычная база данных, в которой размещены все скачанные пауком документы.

Indexer. Эта программа является ключевым элементом любой поисковой системы. Именно Indexer принимает решение о релевантности web-документа его поисковому запросу, а также определяет его место в поисковой выдаче. Indexer проводит анализ текстовой части документа, выявляет его заголовок, ключевые слова, вспомогательные теги и так далее. Кроме того, именно на этом этапе работы поисковой системы происходит фильтрация web-документов в соответствии с требованиями алгоритма поисковой системы.

Search Engine Results. Это и есть выдача поисковой системы, которую видит пользователь, вбивая в форму поиска тот или иной запрос. Основной ее задачей является показ пользователям web-документов в соответствии с их релевантностью поисковому запросу.

Поисковые системы Яндекс и Google, как устроены поисковики

Чтобы успешно продвинуть сайт в топ поисковой выдачи, а также решить другие задачи, связанные с интернет-маркетингом, стоит понимать, как работают ключевые поисковые системы. Для российского digital-маркетинга это, безусловно, «Яндекс» и Google, которыми пользуется подавляющее большинство жителей России и стран СНГ.

Поисковая система – это сложный аппаратно-программный комплекс, состоящий из тысяч и даже миллионов серверов, обрабатывающих пользовательские запросы и собирающих данные со всех сайтов сети Интернет, доступных к индексации. Нужно понимать, что компании, которые владеют такими системами, не разглашают информацию об архитектуре, составе и алгоритмах работы своих поисковых комплексов, поскольку это является коммерческой тайной.

Тем не менее общие принципы того, как работают поисковые системы «Яндекс» и «Гугл», известны. В SEO-продвижении сайта применяется как общедоступная информация, так и сведения, полученные экспериментальным путем.

Итак, «Яндекс» и Google устроены примерно по одному принципу, используют схожую архитектуру, логику поиска, алгоритмы ранжирования и состоят из двух составляющих:

  • аппаратного обеспечения – дата-центров, объединяющих физические серверы в единую систему, и сетевых коммуникаций;
  • программной части, отвечающей за логику работы поисковых систем и подготовку выдачи на запросы пользователей.

О каждом из этих компонентов следует сказать отдельно.

Физический уровень поисковых систем

«Яндекс» и Google используют распределенный принцип защищенного хранения и доступа к информации на базе дата-центров, расположенных по всему миру. Каждый дата-центр содержит в своем составе сотни тысяч (для Google – миллионы) серверов для хранения данных индексации, обработки запросов пользователя и подготовки результатов.

Каждый сервер имеет несколько зеркал, между которыми перераспределяется нагрузка. Так обеспечивается надежное резервирование на случай сбоя или выхода из строя одного из элементов такого массива. Технологии репликации обеспечивают идентичность информации на каждом сервере в режиме реального времени.

Кроме серверного оборудования дата-центры, обслуживающие поисковые системы, оснащены высокоскоростной локальной сетью и несколькими подключениями к Интернету, что обеспечивает их высокую доступность, скорость обработки информации и выдачи результатов пользователю.

Логический уровень работы поисковых систем

«Яндекс» и Google имеют идентичные принципы обработки запросов пользователя и подготовки ответа. В Google имеются некоторые отличия в технологиях, поэтому рассмотрим алгоритм на примере «Яндекса».

  • Запрос пользователя, введенный в поисковую строку сайта Yandex.ru, передается в балансировщик нагрузки.
  • Балансировщик определяет менее нагруженный кластер сети поисковых машин и передает запрос ему на обработку.
  • Далее анализируется орфография, определяется тематическая и региональная принадлежность, запрос классифицируется по типу.
  • Затем проверяется наличие похожих запросов, которые обработаны недавно. Кэш ответов на запросы некоторое время хранится для ускорения подготовки результатов. Это позволяет быстрее формировать выдачу по популярным запросам. Популярность таких запросов может быть краткосрочной (чрезвычайные происшествия, события мирового масштаба, рекламные кампании известных брендов и др.) или постоянной, связанной, например, с социальными сетями. На такие запросы пользователь получает уже готовые результаты.
  • Если при проверке оказывается, что в кэше нет готового ответа на запрос, он передается на серверы базового поиска, который выполняется по частям для ускорения процесса. Это обеспечивается тем, что индекс поисковой системы распределен по серверам.
  • Ответы от нескольких кластеров базового поиска возвращаются метапоиску, а затем проходят через систему ранжирования, которая по различным критериям выстраивает сформированную выдачу.

Алгоритмы ранжирования оказывают значительное влияние на SEO-трафик, успешность интернет-рекламы, однако владельцы поисковых систем оглашают только общие принципы их работы: качественный контент, полезность информации и т. д. Поэтому СЕО-специалистам приходится искать свои эффективные технологии оптимизации страниц сайта для достижения максимальной отдачи от рекламной кампании.

Поисковые системы – основные принципы (Раздел 2)


Структура и принцип работы поисковых систем.

Поисковая система (поисковик, ПС) – программно-аппаратный комплекс с веб интерфейсом. Осуществляющий функции поиска по сети Интернет.

Части поисковой системы:

WEB Spider (паук) – программа работающая как интернет обозреватель. Служит для получения информации со страниц интернет ресурсов.

Crawler (краулер) – программа обрабатывает ссылки которые связывают страницы и указывает путь пауку.

Indexer (индексер) – программа занимается анализом информации на страницы, текстового и графического наполнения.

Database (база данных) – база данных , в которой храниться индекс поисковой системы и сохраненная информация с проиндексированных веб страниц.

Search results engine (поисковая машина) – программная часть которая осуществляет оценку и сортировку сохраненной информации

Web server (веб сервер)– сервер, который взаимодействует между пользователем и поисковой системой

Поисковой индекс – это рубрикатор по своей сути схожий с оглавлением книги. Технология индекса используется в поисковых машинах для более быстрого доступа и оценки сохраненной информации. При создании поискового индекса  используются элементы математики, лингвистики, конгнетивной психологии и информатики.

В индексе хранится информация о содержании, тематике страницы, соответствии ключевым словам, информация о ссылках страницы и многое другое.

Ранжирование сайтов – сортировка результатов поисковой системы. Компания google учитывает более 200 характеристик для оценки соответствия страницы сайта поисковому запросу.

Из учета всех характеристик ПС формирует релевантность страницы.

Релевантность – это показатель соответствия страницы как информационного ответа относительно запроса поисковой системы. В релевантности учитывается не только лингвистическое соответствие но и применимость «адекватность» данного результата.

Траст сайта (доверие ПС) – одной из характеристик сайта является некое значение «доверия» поисковой системы относительно этого сайта.

Косвенными показателями траста сайта являются численные показатели качества сайта или страницы.

Для ПС google таким показателям является PR

PageRank (пейдж ранк) – назван в честь его изобретателя Лари Пейджа. Изменяется от 0 до 10 также может иметь значение «не определен». По сути, является алгоритмом ссылочного ранжирования, то есть показывает, на сколько определенная страница важнее относительно других страниц учитывая ссылочный вес этих страниц. Также пейдж ранк можно рассматривать как показатель вероятности пребывания пользователя на конкретной странице учитывая только ссылочные связи. Пейдж ранк имеет экспоненциальную природу, это означает, что значение PR 10 в десятки тысяч раз больше чем значение PR 1.

Поисковая система Yandex использует показатель ТИЦ

Тематический индекс цитирования (тИЦ) — технология поисковой машины Яндекс заключающаяся в определении авторитетности интернет-ресурсов с учётом качественной характеристики — ссылок на них с других сайтов. тИЦ рассчитывается по специально разработанному алгоритму, в котором особое значение придаётся тематической близости ресурса и ссылающихся на него сайтов.
ТИЦ определяется суммарным весом ссылающихся сайтов. Не могут влиять на тИЦ сайты, где любой человек может поставить свою ссылку без ведома администратора ресурса.

Продвижение сайтов с точки зрения поисковых систем это:

  • Анализ содержания или структуры вашего сайта
  • Технические рекомендации по разработке веб-сайта, например: хостинг, переадресация, страницы с сообщениями об ошибках, использование JavaScript
  • Разработка содержания
  • Управление кампаниями по развитию бизнеса в Интернете
  • Анализ ключевых слов
  • Обучение в области поисковой оптимизации
  • Опыт работы на определенных рынках и географических территориях

Более подробно с определением SEO можно ознакомиться в справочном центре google
http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=35291

Запрещенные методы продвижения подробно описаны в руководстве для веб мастеров компании google
http://www.google.com/support/webmasters/bin/answer.py?answer=35769

Материал подготовлен для обучающего курса Курс Раскрутка сайта и интернет маркетинг с нуля (Курсы SEO) 

Работа поисковых систем: общие принципы работы поисковиков

Вступление

Каждая поисковая система имеет свой алгоритм поиска запрашиваемой пользователем информации. Алгоритмы эти сложные и чаще держатся в секрете. Однако общий принцип работы поисковых систем можно считать одинаковым. Любой поисковик:

  • Сначала собирает информацию, черпая её со страниц сайтов и вводя её в свою базы данных;
  • Индексирует сайты и их страницы, и переводит их из базы данных в базу поисковой выдачи;
  • Выдает результаты по поисковому запросу, беря их из базы проиндексированных страниц;
  • Ранжирует результаты (выстраивает результаты по значимости).

Работа поисковых систем — общие принципы

Вся работа поисковых систем выполняют специальные программы и комбинации этих программ.

Перечислим основные составляющие алгоритмов поисковых систем:

  • Spider (паук) – это браузероподобная программа, скачивающая веб-страницы. Заполняет базу данных поисковика.
  • Crawler (краулер, «путешествующий» паук) – это программа, проходящая автоматически по всем ссылкам, которые найдены на странице.
  • Indexer (индексатор) – это программа, анализирующая веб-страницы, скачанные пауками. Анализ страниц сайта для их индексации.
  • Database (база данных) – это хранилище страниц. Одна база данных это все страницы загруженные роботом. Вторая база данных это проиндексированные страницы.
  • Search engine results engine (система выдачи результатов) – это программа, которая занимается извлечением из базы данных проиндексированных страниц, согласно поисковому запросу.
  • Web server (веб-сервер) – веб-сервер, осуществляющий взаимодействие пользователя со всеми остальными компонентами системы поиска.

Реализация механизмов поиска у поисковиков может быть самая различная. Например, комбинация программ Spider+ Crawler+ Indexer может быть создана, как единая программа, скачивающая и анализирующая веб-страницы и находящая новые ресурсы по найденным ссылкам. Тем не менее, нижеупомянутые общие черты программ присущи всем поисковым системам.

Программы поисковых систем

Spider

«Паук» скачивает веб-страницы так же как пользовательский браузер.  Отличие в том, что браузер отображает содержащуюся на странице текстовую, графическую или иную информацию, а паук работает с html-текстом страницы напрямую, у него нет визуальных компонент. Именно, поэтому нужно обращать внимание на ошибки в html кодах страниц сайта.

Crawler

Программа Crawler, выделяет все находящиеся на странице ссылки. Задача программы вычислить, куда должен дальше направиться паук, исходя из заданного заранее, адресного списка или идти по ссылках на странице. Краулер «видит» и следует по всем ссылкам, найденным на странице и ищет новые документы, которые поисковая система, пока еще не знает. Именно, поэтому, нужно удалять или исправлять битые ссылки на страниц сайта и следить за качеством ссылок сайта.

Indexer

Программа Indexer (индексатор) делит страницу на составные части, далее анализирует каждую часть в отдельности. Выделению и анализу подвергаются заголовки, абзацы, текст, специальные служебные html-теги,  стилевые и структурные особенности текстов, и другие элементы страницы. Именно, поэтому, нужно выделять заголовки страниц и разделов мета тегами (h2-h5,h5,h6), а абзацы заключать в теги <p>.

Database

База данных поисковых систем хранит все скачанные и анализируемые поисковой системой данные. В базе данных поисковиков хранятся все скачанные страницы и страницы, перенесенные в поисковой индекс. В любом инструменте веб мастеров каждого поисковика, вы можете видеть и найденные страницы и страницы в поиске.

Search Engine Results Engine

Search Engine Results Engine это инструмент (программа) выстраивающая страницы соответствующие поисковому запросу по их значимости (ранжирование страниц). Именно эта программа выбирает страницы, удовлетворяющие запросу пользователя, и определяет порядок их сортировки. Инструментом выстраивания страниц называется алгоритм ранжирования системы поиска.

Важно! Оптимизатор сайта, желая улучшить позиции ресурса в выдаче, взаимодействует как раз с этим компонентом поисковой системы. В дальнейшем все факторы, которые влияют на ранжирование результатов, мы обязательно рассмотрим подробно.

Web server

Web server поисковика это html страница с формой поиска и визуальной выдачей результатов поиска.

Повторимся. Работа поисковых систем основана на работе специальных программ. Программы могут объединяться, компоноваться, но общий принцип работы всех поисковых систем остается одинаковым: сбор страниц сайтов, их индексирование, выдача страниц по результатам запроса и ранжирование выданных страниц по их значимости. Алгоритм значимости у каждого поисковика свой.

©SeoJus.ru

Другие уроки SEO учебника

(Всего просмотров 691)

Поделиться ссылкой:

Похожее

Поисковые системы

Основные поисковые системы

На заре своего существования Интернет еще не обладал большим объемом информации. Количество пользователей Сетью было тоже совсем невелико. Однако со временем возникла необходимость в оптимизации доступа к информации, содержащейся в Интернете, благодаря чему в 1994 году на свет появился проект под названием Yahoo. Данный проект подразумевал создание каталогов сайтов, в которых ссылки на сайты были сгруппированы по различным темам. Однако этот проект еще совсем мало был похож на современные поисковые системы. Первой поисковой системой в привычном для нас понимании стала WebCrawler.

На сегодняшний день основными мировыми поисковиками являются Google, Yahoo, MSN Search.

В российском Интернете этот список представлен следующими поисковыми системами: Яндекс, Google, Mail.ru, Aport, Rambler, KM.ru.

Бесспорно, самыми популярными из них являются Яндекс и Google.    

   

Структура поисковых систем

Различные поисковые системы содержат одинаковый состав входящих в них основных элементов, а именно, поле поиска, кнопка поиска, список найденных результатов.

Структура поисковой системы представлена комплексом следующих программ.

  1. Робот spider (паук), целью которого является просмотр страниц сайтов, предназначенных для индексации.
  2. Робот crawler (путешествующий паук). Его функция заключается в поиске новых и неизвестных системе ссылок и добавление их в список индексации.
  3. Индексатор обрабатывает страницу очереди, стоящей на индексацию.
  4. База данных хранит различную информацию необходимую для выведения результатов поиска.
  5. Система обработки запросов и выдачи результатов. Алгоритм ее работы сводится к следующему: во-первых, принять от пользователя запрос на поиск какой-либо информации, во-вторых, обратиться с этим запросом к базе данных, в-третьих, вывести пользователю полученный результат.

 

Фильтры поисковых систем

Рассмотрим отдельно фильтры, применяемые поисковой системой Google и системой Яндекс. Однако следует понимать, что такое разграничение имеет весьма зыбкие границы, так как в той или иной степени большинство из нижеперечисленных фильтров частично присутствует в каждой из этих двух поисковых систем.

Фильтры, предусмотренные системой Google.

  1. Фильтр “Песочница” (Sandbox). Под этот фильтр попадают все новые сайты и могут находиться, в так называемой “песочнице”, от трех месяцев до нескольких лет. Страницы таких новообразованных сайтов не выводятся в результатах поиска по высокочастотным запросам. Однако по запросам с низкой частотностью могут выдаваться поисковой системой. Одной из особенностей этого фильтра является то, что сайты из “песочницы” выводятся не по отдельности, а целыми группами. Достаточно быстрый вывод сайта из “песочницы” может быть обеспечен благодаря большому количеству ссылок на этот интернет-ресурс.
  2. Фильтр “Дополнительные результаты”. Те страницы сайта, которые попали под данный вид фильтра, будут выводиться в результатах поиска только лишь в тех случаях, когда не будет хватать основных, так называемых,  “хороших” страниц.
  3. Фильтр “Bombing”. Под этот фильтр сайты попадают по причине неуникальности анкоров в ссылках.
  4. Фильтр “Bowling”. Опасность попадания сайтов под этот тип фильтров может угрожать исключительно интернет-ресурсам, TrustRunk которых низкий. Попадание сайта под этот фильтр может быть умышленно спровоцировано конкурентами.
  5. Фильтр “Возраст домена”. Причина попадания под фильтр – недоверие поисковой системы новым доменам.
  6. Фильтр “Дублирующийся контент”. Для сайта очень важно наличие на своих страницах уникального контента. Если на интернет-ресурсе используется большое количество краденой информации, то есть скопированной с других ресурсов, то сайт окажется под данным фильтром.
  7. Фильтр-30. Этот фильтр получил свое название благодаря тому, что понижает сайт на тридцать позиций в том случае, если на веб-ресурсе применяются черные методы продвижения (дорвеи, редиректы с помощью JavaScript).
  8. Фильтр “Опущенные результаты”. Сайт может оказаться под фильтром из-за скопированного с других ресурсов контента, из-за недостаточного числа входящих ссылок, дублирующихся заголовков и других meta-тегов. Кроме того, дополнительной причиной может являться недостаточная внутренняя перелинковка страниц сайта.  
  9. Фильтр “Социтирование”. Причиной действия этого фильтра на интернет-ресурс может являться то, что на него ссылаются сайты совершенно иной тематики.
  10. Фильтр “Links”. Чтобы избежать действия данного фильтра, не следует заводить у себя на сайте страницу, предназначенную для обмена ссылками с партнерами. Это не поможет повысить сайт в результатах выдачи поисковой системы, а только нанесет вред.
  11.  Фильтр “Много ссылок сразу”. Чтобы миновать данный фильтр, необходимо воздержаться от приобретения для сайта большого количества ссылок за достаточно короткий период времени.
  12. Фильтр “Чрезмерная оптимизация”. Причина попадания сайта под фильтр является использование на нем чрезмерного количества ключевых фраз с высокой степенью плотности.
  13. Фильтр ”Битые ссылки”. Избежать действия фильтра можно при условии, что ссылки не будут вести на страницы, которых не существует.
  14. Фильтрация страниц по времени загрузки. Как уже понятно из названия, фильтрация в данном случае обусловлена слишком долгой загрузкой страницы.
  15. Общий фильтр “Степень доверия” (Google Trust Rank). Фильтр учитывает такие факторы, как качество перелинковки, число исходящих ссылок, количество и авторитетность входящих ссылок, возраст домена и др. Для повышения позиций сайта в выдаче поисковой системы необходимо повышать Trust Rank.

Фильтры, предусмотренные системой Яндекс.

  1. АГС. Благодаря этому фильтру из поисковой системы исключаются сайты, предназначение которых заключается в поисковом спаме.
  2. Непот-фильтр. Интернет-ресурс может пострадать от этого фильтра за ведение торговли ссылками с сайта, из-за чего сайт засоряется большим количеством таких ссылок.
  3. Редирект фильтр. Этот фильтр наказывает сайты за применение javascript редиректов.
  4. Фильтр плотности ключевых слов. Чтобы избежать действия фильтра, необходимо избегать чрезмерной концентрации ключевых слов и фраз на сайте.
  5. Фильтр “Ты последний”. Причина действия фильтра лежит в обнаружении поисковой системы дубля страницы.

 

Принципы ранжирования в поисковых системах

Ранжирование – это вывод сайтов на страницах поисковых систем в определенной последовательности в ответ на какой-либо запрос пользователя. Принято выделять внутренние и внешние принципы ранжирования. Рассмотрим каждую группу по отдельности.

Внутренние принципы ранжирования. Внутренние принципы ранжирования подчинены действиям владельца сайта. Они учитывают:

  • объем информации на странице сайта;
  • количество, плотность и расположение ключевых слов и фраз на странице интернет-ресурса;
  • стилистику представленного на странице текста;
  • наличие ключевых слов в теге Title и в ссылках;
  • содержание ключевых слов в мета-тегах Description;
  • общее количество страниц сайта.

Внешние принципы ранжирования учитывают:

  • Индекс цитирования (оценивает популярность сайта).
  • Ссылочный текст (внешние ссылки, которые ведут на сайт).
  • Релевантность ссылающихся страниц (оценка информации ссылающейся страницы).
  • Google PageRank (теоретическая посещаемость страницы).
  • Тематический индекс цитирования Яндекс (авторитетность сайта относительно других близких ему интернет-ресурсов).
  • Добавление информации о сайте (самбит) в каталоги общего назначения, каталог DMOZ, Каталог Яндекса.
  • Обмен ссылками между сайтами.

Таким образом, мы представили некоторую информацию, касающуюся специфики работы поисковых систем. Однако следует учесть тот факт, что алгоритм их работы претерпевает различные изменения, поэтому информация о поисковых системах является весьма динамичной и требует постоянного анализа со стороны seo-специалистов.


е-портфолио-луиза.м.9 класс: поиск информации в интернете

  1. Какой вид поиска является самым быстрым и надежным?

 Для поиска интересующей вас информации необходимо указать браузеру адрес Web-страницы, на которой она находится. Это самый быстрый и надежный вид поиска

  1. Где пользователь может найти адреса Web-страниц?

 Адреса Web-страниц приводятся в специальных справочниках, печатных изданиях, звучат в эфире популярных радиостанций и с экранов телевизора.

  1. Каково основное назначение поисковой системы?

Каждая поисковая система – это большая база ключевых слов, связанных с Web-страницами, на которых они встретились

  1. Из каких частей состоит поисковая система?                                                                   поисковые системы состоят из трех частей: робота, индекса и программы обработки запроса
  2. Какие поисковые системы вы знаете?   

google яндекс yahoo рамблер 

  1. Какова технология поиска по рубрикатору поисковой системы?

находит по  разным рубликам, каталогам.

  1. Какова технология поиска по ключевым словам?

Ключевые слова это слова находящиеся на странице или теги именно их показывает поисковая система

  1. Когда в критерии поиска надо задавать + или -?

чтобы были отобраны только те документы, в которых встретилось каждое слово, указанное в запросе, перед каждым из них знак плюс «+». Если хотите исключить какие-либо слова из результата поиска, поставьте перед этим словом минус «-». Знаки « + » и «-» надо писать через пробел от предыдущего и слитно со следующим словом.

  1. Какие критерии поиска в Яндексе заданы следующей фразой:(няня|воспитатель|гувернантка)++(уход|воспитание|присмотр)?

Вместо одного слова в запросе можно подставить целое выражение. Для этого его надо взять в скобки При поиске синонимов или близких по значению слов между словами можно поставить вертикальную черту «|».Например, по запросу «ребенок | малыш | младенец» будут найдены документы с любым из этих слов  + показывает что отобраны только те документы, в которых встретилось каждое слово, указанное в запросе.

  1. Что означает удвоение знака (~~ или ++) при формировании сложного запроса?докуметны содержащие 1 слово, но не содержащие второе 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *