Как скрыть внешние ссылки от поисковиков – Как скрыть от поисковых систем часть контента на странице (текст, часть страницы, ссылки)? И зачем?

Содержание

Нужно ли скрывать внешние ссылки на сайте?

В последнее время в рунете все чаще попадаются сайты, где внешние ссылки скрыты от поисковых систем при помощи JavaScript, или еще какими-то хитроумными способами разной степени сложности и заморочности. Даже систему кодирования base64 применяют.

Base64, Карл!!! Это вообще жесть!

Чаще всего используют замену тега a href на какой-нибудь span с куском кода JavaScript, а чтобы пользователь все же видел, что это таки ссылка, добавляют в правила CSS для него cursor: pointer и в title прописывают адрес ссылки. Кто-то применяет для этого же библиотеку jQuery, хотя разницы абсолютно никакой.

Кстати, зачастую такие псевдо-ссылки не работают вовсе. Если вы используете этот метод, то проверьте, все ли ссылки у вас рабочие.

При этом владельцы сайтов наивно полагают, что поисковики не прочитают код JavaScript и не засчитают это ссылкой. Еще в 2014 году Гугл заявил, что поисковые роботы уже умеют прочитывать скрытое содержимое в JavaScript (пруф):

Traditionally, we were only looking at the raw textual content that we’d get in the HTTP response body and didn’t really interpret what a typical browser running JavaScript would see. When pages that have valuable content rendered by JavaScript started showing up, we weren’t able to let searchers know about it, which is a sad outcome for both searchers and webmasters.

In order to solve this problem, we decided to try to understand pages by executing JavaScript. It’s hard to do that at the scale of the current web, but we decided that it’s worth it. We have been gradually improving how we do this for some time. In the past few months, our indexing system has been rendering a substantial number of web pages more like an average user’s browser with JavaScript turned on. Sometimes things don’t go perfectly during rendering, which may negatively impact search results for your site.

Для тех, кто не в ладах с английским, суть приведенной цитаты вот в чем: раньше поисковые боты считывали только «сырой» текст страницы, не заглядывая в содержимое JavaScript. Но порой в этом содержимом заключалась ценная информация. Поэтому со временем роботы научились распознавать и ее тоже.

Обратите внимание на последнюю строку. В ней четко говорится, что пока боты делают это не идеально, и возможны траблы, что весьма негативно скажется на результатах поисковой выдачи. Оно вам таки надо?

Зачем вообще скрывать внешние ссылки?

Многие боятся, что попадут под очередные санкции от любимого поисковика за кучу внешних не релевантных ссылок со страниц сайта. Пример — комментарии на блоге. Если их достаточно много, то страница действительно будет ссылаться на кучу не релевантных сайтов, и это не есть гуд.

Вот тут и придумывают владельцы сайтов всякие извращения, чтобы ссылок как бы не было, но они как бы все равно были. То есть, чтобы посетитель их видел и мог воспользоваться, а боты поисковых систем — нет.

Так в чем проблема то?

Если вы хотите скрыть от поисковиков ссылку, но показать ее пользователю, то оформите ее простым текстом — http://www.site.com/ Поисковики не будут считать ее ссылкой. Не верите? Вот вам доказательство (англ). Вкратце суть эксперимента там такова:

Было проверено, распознает ли Гугл текстовую ссылку без <a href именно как ссылку или нет? Оказалось, что таки он может узнать в этом тексте ссылку, но бот по ней не переходит, и никакого веса по ней не передается. Это вам не nofollow, который теперь отдает вес в никуда.

Еще в 2009 Мэтт Каттс говорил об этом же:

Включите титры с переводом на русский, если что-то непонятно. В целом, он говорит, что просто текст url не учитывается как ссылка, иначе вебмастера давно бы этим делом стали злоупотреблять. Думаю, с тех пор мало что изменилось.

Как скрыть внешнюю ссылку?

Зачем в очередной раз выдумывать велосипед? Во все времена вебмастера, если хотели показать ссылку, но только так, чтобы она не работала именно как ссылка, то просто писали ее обычным текстом:

http://www.site.com/

По-моему, лучшего пока ничего не придумали.

Лично у меня на блоге Вебсовет так и сделано в комментариях. Ссылка на сайт комментатора просто написана обычным текстом. Делает это встроенная функция comment_author_url(). И не нужно ничего выдумывать.

Подобный подход, имхо, позволяет поймать сразу двух зайцев:

Во-первых, отсеивает халявщиков. Никому будет не интересно сорить направо и налево своими ссылками, если они не работают как ссылки.

Во-вторых, это заставляет комментаторов оставлять более адекватные и ценные комментарии, а не короткие и ничего не значащие фразы. Если комментатор хочет, чтобы по его текстовой ссылке кто-то перешел, не поленившись скопировать ее и вставить в адресную строку браузера, то он напишет действительно толковый коммент.

Вывод

Прятать ссылки хитрыми способами — глупо! Поисковики рано или поздно накажут и за это. Будьте проще. Используйте обычный текст вместо ссылки, если хотите, чтобы поисковики по ним не переходили.

Как скрыть от поисковых систем часть контента на странице (текст, часть страницы, ссылки)? И зачем?

На некоторых сайтах имеет смысл скрыть часть контента от поисковых систем.

Как скрыть часть контента на страницах сайта от роботов поисковых систем?

Для каких целей следует скрывать содержание?

Разберемся с вопросами далее.

Зачем скрывать контент сайта от индексации?


Контент на сайте скрывается от поисковых систем для достижения различных целей.

Если скрыть часть контента от поискового краулера, то алгоритмы ранжирования обработают не всю страницу, а лишь ее часть. В результате поисковый оптимизатор может извлечь выгоду.

Ссылки, текст и часть или блок страницы закрыты от поисковой системы

Если от поисковых систем часть сайта скрывается, то для пользователей весь контент остается полностью видимым.

Ссылки, текст и часть или блок страницы закрыты от поисковой системы, открыты для пользователей

Итак, какой контент имеет смысл скрывать и зачем? Например:

  • Ссылки для улучшения внутренней перелинковки на сайте. Улучшение достигается за счет оптимизации распределения статического ссылочного веса на сайте;
  • Часть текста для повышения релевантности страницы;
  • Часть страницы для улучшения ранжирования. Например, скрытие рекламных блоков со страницы, которые находятся в верхней части страницы. Если такие рекламные блоки не скрывать, то поисковая система после рендеринга на так называемом первом экране распознает нерелевантный контент, что не позволит сайту ранжироваться лучше;
  • Часть страницы для защиты от санкций поисковых систем.
    Например, часто требуется скрывать исходящие ссылки на различные сайты.

Есть еще множество различных ситуаций при которых требуется скрывать от поисковых систем часть страницы.

Например, поисковые системы пессимизируют сайты с реферальными ссылками. Такие сайты зарабатывают на партнерских отчислениях. С точки поисковых систем таких как Google подобные сайты не несут никакой дополнительной ценности для пользователя, а значит и не должны находиться среди лидеров поиска.

Если реферальные ссылки скрыть, проблем не будет.

Как скрыть реферальные ссылки от поисковых систем

Как скрыть от поисковых систем часть страницы?


На практике скрыть контент сайта от индексации можно используя разные способы.

Наиболее распространенным способом по скрытию текста от поисковых систем является использование подгрузки текста по параметру в хеш-ссылке. Исходя из заявлений Google, протокол HTTP/HTTPS не был разработан для такого использования, поэтому при использовании данного метода индексация не происходит.

Наиболее распространенным способом по скрытию ссылки от поисковых систем является использование контейнера div при создании ссылки.

Но что делать, если речь идет о создании системы для скрытия контента?

Какую технологию использовать? Основные требования следующие:

  • У пользователя на экране должен отображаться весь контент страницы сайта;
  • Для поисковой системы должен отдаваться не весь контент страницы сайта;
  • Способ должен быть условно белым, чтобы сложнее было найти повод для санкций.

В результате оптимальной технологией является та технология, которая официально:
  • Не поддерживается движком поисковой системы;
  • Поддерживается популярными браузерами.

Ситуация ухудшается тем, что Google обновил поисковый краулер. Теперь Google выполняет скрипты, написанные на современном JavaScript.

Рекомендованный материал в блоге MegaIndex по теме обновления краулера по ссылке далее — Google обновил поисковый краулер. Что изменилось? Как это повлияет на ранжирование?

Все приведенные способы основаны на принципах работы поискового краулера.

Но лазейка все еще есть. В результате обновления стала известна информация о принципах работы поискового краулера, используя которую можно сделать выводы о том, какие именно технологии поисковый робот не поддерживает, а значит не передает в систему ранжирования.

До начала этапа ранжирования происходит ряд процессов.

Весь процесс обработки информации до этапа ранжирования выглядит так:

Googlebot процесс индексации сайта

После рендеринга происходит передача данных в систему ранжирования.

Если после рендеринга часть документа отсутствует, значит данная часть документа не будет участвовать и в ранжировании.

Теперь требуется разобраться с тем, какую технологию пока еще не поддерживает движок рендеринга. Применяя такую технологию на практике можно скрывать часть содержания страниц сайта от поисковой системы.

Итак, скрыть любую часть страницы от поисковой системы можно используя так называемые service workers.

Что такое сервис-воркеры? Сервис-воркеры — это событийный управляемый веб-воркер, регистрируемый на уровне источника и пути. Сервис-воркер может контролировать сайт, с которым ассоциируется, перехватывать и модифицировать запросы навигации и ресурсов.

Да, я вижу ваши лица. Подождите пугаться.

Если упростить, то сервис-воркером является программируемый сетевой проксификатор.

Иными словами, применяя сервис-воркер можно контролировать контент, который передаются пользователю.

Как скрыть от индексации контент на сайте - Сервис Воркеры

В результате применения сервис-воркеров контент может изменяться. Поисковая система же обрабатывает такие корректировки, так как не поддерживает выполнения таких скриптов.

Как скрыть от индексации текст, часть страницы, ссылки - Сервис Воркеры

Почему метод эффективен в применении на практике? Сервис-воркеры поддерживаются всеми популярными браузерами и не поддерживаются движком рендеринга поисковой системы Google, через который данные передаются в систему ранжирования.

Следующие браузеры поддерживают сервис-воркеры:

  • Chrome;
  • Android Chrome;
  • Opera;
  • Safari;
  • iOS Safari;
  • Edge;
  • Firefox.

Задача поискового оптимизатора заключается в следующем:
  • Найти элементы, которые требуется скрыть от поисковой системы;
  • Если такие элементы есть, то передать задачу в отдел разработки и оповестить про способы реализации на практике;
  • Протестировать работу на примере одного документа путем использования программного решения Chrome Dev Tools или путем анализа кеша страницы в Google после индексации.

Вопросы и ответы


Есть ли официальные заявления о том, что Google действительно не поддерживает сервис-воркеры


Да, такие заявление являются публичными и есть на видео.

Зачем нужны сервис-воркеры?


На сайтах серивс-воркеры используют для разных целей. Например, для адаптации сайта под ситуацию с прерванным доступом к интернету.

Если интернет пропал, то при использовании сервис-воркеров сайты могут вести себя как приложения на мобильных устройствах, то есть отдавать уже скачанный контент и сигнализировать о необходимости подключения.

На практике сервис-воркеры используются еще и для кеширования изображений.

Еще используя сервис-воркеры можно сохранять данные заполненных форм и отправлять их в интернет при появлении подключения. Для реализации используется Background Sync API. Цепь следующая:

Сайт - Index DB - Service Worker - Интернет

Еще сервис-воркеры вместе с Content-Length и Range можно использовать для загрузки больших файлов частями. Например, так можно защищать видео от копирования.

Еще сервис-воркеры используются для отправки push уведомлений.

Кстати, сервис-воркеры продолжают работать даже когда окно браузера закрыто.

Кто использует сервис-воркеры?


Например сервис-воркеры используются на таких сайтах как:
  • Google;
  • YouTube;
  • Twitter;
  • Booking;
  • Facebook;
  • Washington Post;

Как скрыть весь сайт от поисковых систем?


В редких случаях сайты полностью могут быть закрыты от поисковых роботов. Например так защищают площадки от Роскомнадзора при продвижении сайтов различных спортивных тематик. Если стоит задача скрыть всю страницу или весь сайт от конкретных роботов, то наиболее эффективный способ заключается в запрете индексации на уровне сервера. Рекомендованный материал в блоге MegaIndex по теме защиты сайта от парсинга различными роботами по ссылке далее — Эффективные способы защиты от парсинга сайта.

Кстати, краулер MegaIndex индексирует больше ссылок за счет того, что для робота MegaIndex доступ к сайтам не закрыт.

Почему так происходит? Поисковые оптимизаторы используют различные плагины для того, чтобы закрыть ссылки от таких сервисов как SEMrush, Majestic, Ahrefs. В таких плагинах используются черные списки. Если вести речь про глобальный рынок, то MegaIndex является менее расхожим сервисом, и поэтому часто краулер MegaIndex не входит в черный список. Как результат, применяя сервис MegaIndex у поисковых оптимизаторов есть возможность найти те ссылки, которые не находят другие сервисы.

Ссылка на сервис — Внешние ссылки.

ссылающиеся сайты ссылки

Еще выгрузку ссылок можно провести посредством API. Полный список методов доступен по ссылке — MegaIndex API. Метод для выгрузки внешних ссылок называется backlinks. Ссылка на описание метода — метод backlinks.

Пример запроса для сайта indexoid.com:

http://api.megaindex.com/backlinks?key={ключ}&domain=indexoid.com&link_per_domain=1&offset=0

Пример запроса для сайта smmnews.com:
http://api.megaindex.com/backlinks?key={ключ}&domain=smmnews.com&link_per_domain=1&offset=0

Выводы


С обновлением Googlebot скрыть ссылки, текст и другие части страниц сайта от поисковой системы стало сложнее, но лазейки есть. Поисковый движок рендеринга по прежнему не поддерживает сервис-воркеры.

Googlebot обновление

Используя service workers с запросами можно проводить следующие манипуляции:

  • Отправлять;
  • Принимать.
  • Модифицировать.

Применяя сервис-воркеры можно скрыть от поисковых систем ссылки, текст, и даже блок страницы.

Итак, в результате при необходимости поисковый оптимизатор может:

  • Закрыть от индексации внешние ссылки с целью улучшения распределения статического ссылочного веса;
  • Закрыть от индексации страницы тегов с низкой частотностью;
  • Закрыть от индексации страницы пагинации;
  • Скрытый текст или часть текста от индексации;
  • Закрыть от индексации файлы;
  • Закрыть от индексации блок и часть страницы;
  • Скрыть от индексации реферальные ссылки.

Сервис-воркеры можно использовать и в целях улучшения производительности сайта. Например, намедни Google стал использовать сервис-воркеры в поисковой выдаче.

Схема одного из интересных трюков выглядит так:

  • Вы искали ресторан, например утром;
  • Спустя время, вы снова искали ресторан, например по той причине, что забыли о том, где находится заведение. На данном шаге Google выдаст результаты из кеша, который управляется сервис-воркером. Как результат, данные выдаются без отправки запроса в интернет.

Преимущества следующие:
  • Снижается нагрузка на сервер Google, что приводит к снижению затрат;
  • Увеличивается скорость загрузки страницы с ответом. Повышается лояльность пользователя;
  • Страницы откроется даже без интернета. Повышается лояльность пользователя.

Остались ли у вас вопросы, замечания или комментарии по теме скрытия части содержания страниц от поисковых систем?

Скрытие ссылок от поисковых систем

Скрытие ссылок от поисковых систем

Поисковые системы рекомендуют открывать ссылки к индексации, однако странно если бы совет был от обратного.

Способы закрыть ссылки сайта от поисковых системы

Приведенные ниже строчки кода позволяют скрыть ссылки сайта от индексации поисковыми системами.
<input type="button" value="текст" >
<a href="#" >anchor</a>
<a href="#" >anchor</a>
Данные способы проверены эмпирически. Можно проверить актуальность способов. Необходимо использовать операторы поиска от поисковых систем для проверки inanchor для поисковой системы от Google и anchorint для поисковой системы от Yandex.

Рекомендованное чтиво по теме операторов поиска для выдачи на сайте социальной сети интернет-специалистов MegaIndex.org по ссылкам ниже:

Скрытие ссылок от поисковых систем

Скрытие ссылок на сайте от поисковых систем происходит для достижения ряда целей по оптимизации.

Цели скрытия ссылок:

  • Увеличение статического веса важных для продвижения;
  • Снижение статического веса передаваемого на внешние ресурсы;
  • Снижение общего количества исходящих ссылок с сайта;
  • Повышение релевантности страниц на основе аналитики.

Увеличение статического веса важных для продвижения документов

Любая страница передает статический вес по любым ссылкам на документа или изображений. Скрытие ссылок от поисковых систем позволяет передать большее количество статического веса важным для продвижения документам сайта.

Рекомендованное чтиво по теме статического и анкорного веса на сайте социальной сети интернет-специалистов MegaIndex.org по ссылке далее:

Передача статического веса по ссылке и распределение анкорных весов в тексте ссылки.

Снижение статического веса передаваемого на внешние ресурсы

Закрывая от индексации исходящие ссылки страница не передает вес на сторонние сайты. Однако закрывать следует только низкоавторитетные сайты:

Рекомендованное чтиво по теме:

Снижение общего количества исходящих ссылок с сайта

Снижение общего количества исходящих ссылок с сайта необходимо при наличии на сайте множества ссылок. Например, ссылок на профили пользователей в социальных сетях.

Увеличение релевантности страниц на основе аналитики

В поисковой системе есть лидеры поиска по запросу. Текстовый анализ позволяет провести реверс-инжиниринг, определить параметры текста и использовать данные на сайте в целях поисковой оптимизации посредством скрытия ссылок если ссылок значительно больше значения медианы.

Аналитика текста вычисляет и количество ссылок в документе сайта. Исходя из аналитики текста, ссылок на сайте может быть больше или меньше за нужное количество.

Рекомендованное чтиво по теме текстового анализа документа на сайте социальной сети интернет-специалистов MegaIndex.org:

Провести текстовый анализ можно используя приложение Текстовый анализ от сервиса MegaIndex.
Сервис бесплатный.

Ссылка на сервис — MegaIndex

Закрываются ссылки для достижения ряда целей по поисковой оптимизации, но иногда и с целью анонимизации.

Закрытие ссылок

Кроме скрытия ссылок на сайте от поисковых систем в целях поисковой оптимизации, бывают и иные цели и методы по закрытию ссылок.

Скрытие ссылок иногда происходит и исходя с целями:

  • Скрытие источника информации от систем аналитики;
  • Скрытия ссылок с целью запрета индексации.
Скрытие источника информации от систем аналитики требуется при реализации цели спрятать источник перехода и происходит за счет специальных сервисов, например goo.gl (Google) или anonym.to.

Сервис по ссылке anonym.to позволяет скрывать все исходящие ссылки автоматически посредством установки на сайт javascript скрипта и использования сервиса anonym.to.

Иногда страницы надо закрыть от индексации. Закрывать рекомендуется служебные и технические страницы сайта. Рекомендованное чтиво по теме закрытия страниц от индексации на сайте социальной сети интернет-специалстов MegaIndex.org по ссылкам далее:

На большем сайте эффективно повышать релевантность документов сайта посредством правильногоиспользования перелинковки. Перелинковка создается в автоматическем режиме посредством использования специальных сервисов. Например, эффективно использовать приложение Перелинковка от сервиса MegaIndex.
Сервис бесплатный.

Ссылка на сервис — MegaIndex.

Как спрятать ссылку от поисковиков

Почему поисковики не любят много ссылок на Ваших сайтах мы рассматривали в этой статье. Так же мы там рассмотрели один из методов как спрятать ссылку от поисковиков, но этот метод не всегда удобен. Например в Joomla этот метод не сработает, так как теги noindex и nofollow Joomla просто автоматически вырезает. Да и ходят слухи, что тег nofollow Гугл стал воспринимать как нарушение, но это не официальная информация.

Итак, рассмотрим ещё один метод «Как спрятать ссылки от поисковиков». Кому-нибудь этот метод может показаться очень «напряжным» (в плане затраченного времени), но со временем Вы привыкнете и будете это делать на автомате (я привык).

Теперь по пунктам:

  • Предположим Вы хотите спрятать ссылку http://el-commercial.ru. Создавайте текстовый документ и вставляйте туда код такого вида:

<html>
<head>
<title>Регистрация на сайте el-commercial.ru</title>
<meta http-equiv=»refresh» content=»0;URL=http://el-commercial.ru»>
</head>
<body>
</body>
</html>

  • Цифра «0» означает через сколько секунд произойдёт редирект, а URL — это ссылка, которую Вы хотите спрятать от поисковиков.
  • Далее сохраняйте этот текстовый документ как «el-commercial.ru.html» (можете давать другие навзвания, лишь бы формат был html).
  • В корневой папке Вашего сайта создайте папку (например «ssilka») и закидывайте туда файл «el-commercial.ru.html«.
  • Далее в самой ссылке прописывайте не адрес «http://el-commercial.ru», а адрес «ssilka/el-commercial.ru.html».

То есть при нажатии по этой ссылке будет происходить редирект на тот адрес, который Вы указали, а соответственно поисковиками это будет считаться как внутренняя ссылка Вашего сайта, которая совершенно не причинит вреда самому сайту. Если Вы продаёте ссылки с Вашего сайта, который на Джумле, то это будет очень полезный метод, так как биржи купли продажи ссылок тоже не увидят Ваши ссылки, а соответственно Вы сможете больше продать.

Конкретный пример данного метода. Например мы хотим спрятать ссылку «http://www.sape.ru/r.gOvmMcQObC.php». Таким образом она будет выглядеть спрятанной «sape.ru«. При нажатии на ссылку обратите внимание на адресную строку браузера. Сначала она будет вида «http://el-commercial.ru/go/sape.ru.html» (где «go», это название моей папки куда я добавляю ссылки. Конкретно мы рассматривали папку «ssilka»), а уже через секунду появится адрес «http://www.sape.ru/r.gOvmMcQObC.php».

И ещё одна проблема, с которой я столкнулся после этого метода. Поисковики Вашу папку из корневого каталога «ssilka» воспримут как кучу новых страниц с ошибками, то есть каждая спрятанная ссылка по этому методу будет индексироваться поисковиками как страница с ошибкой. Чтобы этого избежать в robots.txt пропишите такую строку «Disallow: /ssilka/» для того, чтобы запретить роботу индексировать информацию с этой папки.

Интересное:

После наступления кризиса, у меня, как и у всех людей в России возникли денежные затруднения и мне нужно было найти работу. На сайте www.slando.kz я быстро нашёл работодателя и меня приняли на высокооплачиваемую работу. Так же на этом сайте можно найти хорошие и дешёвыемобильные телефоны.

Скрывать ли внешние ссылки на сайте?

В последнее время в рунете все чаще попадаются сайты, где внешние ссылки скрыты от поисковых систем при помощи JavaScript, или еще какими-то хитроумными способами разной степени сложности и заморочности. Даже систему кодирования base64 применяют.

Base64, Карл!!! Это вообще жесть!

Чаще всего используют замену тега a href на какой-нибудь span с куском кода JavaScript, а чтобы пользователь все же видел, что это таки ссылка, добавляют в правила CSS для него cursor: pointer и в title прописывают адрес ссылки. Кто-то применяет для этого же библиотеку jQuery, хотя разницы абсолютно никакой.

Кстати, зачастую такие псевдо-ссылки не работают вовсе. Если вы используете этот метод, то проверьте, все ли ссылки у вас рабочие.

При этом владельцы сайтов наивно полагают, что поисковики не прочитают код JavaScript и не засчитают это ссылкой. Еще в 2014 году Гугл заявил, что поисковые роботы уже умеют прочитывать скрытое содержимое в JavaScript (

onclick="return !window.open(this.href)"